WO2017073302A1 - 撮像システムのための制御装置、撮像システム、及び撮像システムの制御方法 - Google Patents

撮像システムのための制御装置、撮像システム、及び撮像システムの制御方法 Download PDF

Info

Publication number
WO2017073302A1
WO2017073302A1 PCT/JP2016/079984 JP2016079984W WO2017073302A1 WO 2017073302 A1 WO2017073302 A1 WO 2017073302A1 JP 2016079984 W JP2016079984 W JP 2016079984W WO 2017073302 A1 WO2017073302 A1 WO 2017073302A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
video signal
fluorescence
image
light source
Prior art date
Application number
PCT/JP2016/079984
Other languages
English (en)
French (fr)
Inventor
航史 小島
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2017508593A priority Critical patent/JP6203452B1/ja
Publication of WO2017073302A1 publication Critical patent/WO2017073302A1/ja
Priority to US15/953,967 priority patent/US11051683B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0653Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with wavelength conversion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • A61B5/0086Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters using infrared radiation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination

Definitions

  • the present invention relates to a control device for an imaging system, an imaging system, and a control method for the imaging system.
  • Japanese Patent Application Laid-Open No. 2007-313171 discloses an endoscope system that can sequentially acquire a reflected light image and an autofluorescence image and present an image on which these images are superimposed to the user. .
  • Japanese Unexamined Patent Application Publication No. 2007-313171 discloses that near infrared light is used as excitation light.
  • Fluorescence has lower light intensity than reflected light. For this reason, if the condition relating to the brightness of the image is adjusted in the same manner as in the case of reflected light or the like, an image having appropriate brightness for fluorescence may not be obtained.
  • An object of the present invention is to provide a control apparatus, an imaging system, and an imaging system control method for an imaging system capable of obtaining a fluorescent image with appropriate luminance.
  • a control device for an imaging system is configured to acquire a video signal obtained by imaging fluorescence emitted from a subject by being excited by excitation light irradiated on the subject.
  • the obtained video signal acquisition unit, the photometry unit that acquires the brightness of the fluorescence based only on the color-specific video signal corresponding to the fluorescence included in the video signal, and the photometry unit acquired by the photometry unit A luminance control unit that adjusts the luminance of a fluorescent image created based on the video signal based on the brightness of the fluorescent light.
  • an imaging system includes the above-described control device, a light source that emits the excitation light, and an imaging device that images the fluorescence.
  • a method for controlling an imaging system includes obtaining a video signal obtained by imaging fluorescence emitted from a subject by being excited by excitation light irradiated on the subject, and the video The brightness of the fluorescence is acquired based only on the color-specific video signal corresponding to the fluorescence included in the signal, and is created based on the video signal based on the acquired brightness of the fluorescence. Adjusting the brightness of the fluorescent image.
  • the present invention it is possible to provide a control device, an imaging system, and an imaging system control method for an imaging system capable of obtaining a fluorescent image with appropriate luminance.
  • FIG. 1 is a block diagram illustrating an outline of a configuration example of an imaging system according to an embodiment.
  • FIG. 2 is a schematic diagram illustrating an outline of an image example obtained in the normal light observation mode.
  • FIG. 3 is a schematic diagram showing an outline of an image example obtained in the infrared light observation mode.
  • FIG. 4 is a schematic diagram showing an outline of an image example obtained when a background image is superimposed in the infrared light observation mode.
  • FIG. 5 is a diagram showing a list of examples of various settings for each observation mode.
  • FIG. 6 is a flowchart illustrating an example of the operation of the imaging system.
  • FIG. 7 is a schematic diagram showing an outline of an example of the relationship between each light source and their output intensity.
  • FIG. 8 is a schematic diagram showing an outline of an example of the intensity of light of each wavelength incident on the rigid mirror.
  • FIG. 9 is a schematic diagram illustrating an outline of an example of the intensity of light of each wavelength incident on the image sensor.
  • the present embodiment relates to an imaging system that acquires an image using a medical rigid endoscope and an imaging device.
  • the imaging system according to the present embodiment has a function for imaging fluorescence emitted when an object to be observed is irradiated with excitation light.
  • FIG. 1 An outline of a configuration example of an imaging system 10 according to the present embodiment is shown in FIG.
  • the imaging system 10 includes a video processor 100 that functions as a control device of the imaging system 10, a light source device 200, an imaging device 300, a rigid endoscope 400, and a display device 500.
  • a broken-line arrow indicates a flow of a video signal from acquisition by the imaging device 300 to display on the display device 500.
  • a dashed-dotted arrow indicates a flow of a control signal related to luminance control for adjusting the brightness of an image to be described later. Solid arrows indicate the flow of signals other than those described above.
  • a rigid endoscope 400 which is a general optical viewing tube, is configured such that an imaging device 300 is connected thereto.
  • the imaging apparatus 300 includes an imaging unit 310 that includes an imaging element and the like.
  • the image sensor includes, for example, a CCD image sensor or a CMOS image sensor.
  • a three-plate method is adopted for the imaging unit 310.
  • a single plate method may be adopted for the imaging unit 310.
  • a process such as a synchronization process is required.
  • the imaging unit 310 generates a video signal related to the image of the subject formed on the imaging surface of the imaging device using the imaging device.
  • the rigid endoscope 400 includes an optical system 410 and an illumination window 420.
  • the optical system 410 forms an image of the subject on the imaging surface of the imaging element of the imaging device 300.
  • the optical system 410 includes a filter 412 that blocks near-infrared light. The spectral characteristics of the filter 412 will be described later.
  • the filter 412 may be disposed on the front surface of the objective optical system, may be provided as one optical element in the relay lens, or may be provided at the eyepiece of the rigid endoscope 400.
  • a similar filter may be provided in the imaging unit 310 of the imaging apparatus 300 instead of the rigid endoscope 400.
  • the illumination window 420 is a window that emits illumination light guided from the light source device 200. The illumination light emitted from the illumination window 420 illuminates the subject imaged by the imaging unit 310.
  • the light source device 200 includes a light source 210, a light source drive circuit 220, and a light amount control circuit 230.
  • the light source 210 has a plurality of light sources, for example. That is, the light source 210 includes an IR light source 211 that emits near-infrared light, an R light source 212 that emits red light, a G light source 213 that emits green light, and a B light source 214 that emits blue light. It is.
  • White light is prepared by combining red light emitted from the R light source, green light emitted from the G light source, and blue light emitted from the B light source.
  • These light sources may be constituted by various semiconductor light sources such as a semiconductor laser light source or a light emitting diode.
  • the light source driving circuit 220 drives each light source included in the light source 210.
  • the light amount control circuit 230 controls the operation of the light source driving circuit 220. That is, the light amount control circuit 230 controls the on / off of the light source 210 and the intensity of light emitted from each light source.
  • the light emitted from the light source 210 is guided by the light guide fiber and guided to the illumination window 420 of the rigid mirror 400.
  • the amount of light guided to the illumination window 420 of the rigid mirror 400 may be adjusted by the intensity of the light emitted from the light source 210, or may be adjusted by other methods.
  • the amount of light guided to the rigid mirror 400 may be adjusted by providing a stop between the light source 210 and the light incident end of the light guide fiber and adjusting the aperture ratio of the stop.
  • the power supplied to the light source 210 may be adjusted by changing the current value, or may be adjusted by pulse width modulation (PWM) control. Also good.
  • PWM pulse width modulation
  • the display device 500 is a general display device such as a liquid crystal display.
  • the display device 500 displays an image based on the video signal image-processed by the image processing circuit 120 of the video processor 100 described later.
  • the video processor 100 includes a video signal acquisition circuit 110, an image processing circuit 120, a luminance adjustment circuit 130, a control circuit 140, a storage device 150, and an input device 160.
  • the video signal acquisition circuit 110 acquires the video signal generated by the imaging unit 310 from the imaging device 300.
  • the video signal acquisition circuit 110 transmits the acquired video signal to the image processing circuit 120.
  • the video signal acquisition circuit 110 functions as a video signal acquisition unit configured to acquire a video signal obtained by imaging fluorescence.
  • the image processing circuit 120 performs various image processing on the video signal acquired from the video signal acquisition circuit 110, and outputs the video signal after the image processing to the display device 500.
  • the processing performed by the image processing circuit 120 includes pre-processing 122, detection processing 124, auto gain control (AGC) 126, and post-processing 128.
  • processing such as color processing, noise reduction by filtering, gain adjustment, and the like is performed on the video signal acquired from the video signal acquisition circuit 110.
  • the video signal after the pre-stage process 122 is multiplied by a detection parameter that is a predetermined coefficient for each color.
  • WLI normal light observation
  • IRI infrared imaging
  • the gain of the video signal is adjusted so that the signal intensity of each color is within an appropriate range and the brightness of the image is appropriate for the video signal after the detection processing 124. This gain adjustment is performed under the control of the luminance adjustment circuit 130.
  • various image processing for generating an image to be displayed on the display device 500 is performed using the video signal after the AGC 126.
  • the video signal after the post-processing 128 is transmitted to the display device 500.
  • the brightness adjustment circuit 130 adjusts various operations of the imaging system 10 so that an image represented by the video signal processed by the image processing circuit 120 has appropriate brightness.
  • the brightness adjustment circuit 130 includes a photometry unit 131 and a brightness control unit 132.
  • the photometry unit 131 acquires the video signal after the detection process 124.
  • the photometry unit 131 calculates the brightness of the image represented by the video signal based on the acquired video signal.
  • the photometry unit 131 transmits the calculation result to the luminance control unit 132.
  • the luminance control unit 132 changes various settings based on the luminance information of the image acquired from the photometry unit 131.
  • the luminance control unit 132 includes a light source control unit 134, a gain control unit 135, and an exposure control unit 136.
  • the light source control unit 134 adjusts the output of the light source 210 of the light source device 200 so that the brightness of the image becomes appropriate.
  • the light source control unit 134 transmits information related to the determined output of the light source 210 to the light amount control circuit 230 of the light source device 200.
  • the light amount control circuit 230 controls the operation of the light source 210 based on information received from the control circuit 140 described later and information related to the output received from the light source control unit 134.
  • the gain control unit 135 determines the setting of the gain of the AGC 126 that is one of the parameters of image processing performed by the image processing circuit 120 so that the luminance of the image becomes appropriate.
  • the gain control unit 135 transmits the determined gain setting to the image processing circuit 120.
  • the image processing circuit 120 performs processing of the AGC 126 based on the gain setting acquired from the gain control unit 135.
  • the exposure control unit 136 determines the exposure setting of the imaging unit 310 of the imaging device 300 so that the brightness of the image is appropriate.
  • the exposure control unit 136 transmits the determined exposure setting to the imaging unit 310.
  • the imaging unit 310 performs an imaging operation based on the exposure setting acquired from the exposure control unit 136. For example, the exposure time by the imaging unit 310 is based on this exposure setting.
  • the control circuit 140 controls the operation of each part of the video processor 100.
  • the control circuit 140 is connected to, for example, the image processing circuit 120 and the luminance adjustment circuit 130, and issues a command regarding the operation of the image processing circuit 120 and the luminance adjustment circuit 130.
  • the control circuit 140 is connected to the light amount control circuit 230 of the light source device 200 and transmits necessary information to the light amount control circuit 230. For example, the control circuit 140 transmits information on whether the observation mode is the normal light observation mode or the infrared light observation mode, and information on whether the light source 210 is turned on or off to the light amount control circuit 230. To do.
  • the storage device 150 includes a storage device such as a semiconductor memory or a hard disk.
  • the storage device 150 is connected to the control circuit 140.
  • the storage device 150 may be connected to the image processing circuit 120, the brightness adjustment circuit 130, or the like.
  • the storage device 150 stores programs and setting values necessary for the operation of each unit.
  • the input device 160 includes input devices such as a switch, a keyboard, and a touch panel.
  • the control circuit 140 can receive an instruction from the user via the input device 160.
  • the image processing circuit 120, the brightness adjustment circuit 130, and the control circuit 140 are integrated circuits such as a central processing unit (CPU), an application specific integrated circuit (ASIC), or a field programmable gate array (FPGA). Each of the image processing circuit 120, the brightness adjustment circuit 130, and the control circuit 140 may be configured by one integrated circuit or the like, or may be configured by combining a plurality of integrated circuits. Further, two or more of the image processing circuit 120, the brightness adjustment circuit 130, and the control circuit 140 may be configured by one integrated circuit or the like. The operation of these integrated circuits is performed in accordance with, for example, a program recorded in the storage device 150 or a recording area in the integrated circuit. Similarly, the light amount control circuit 230 of the light source device 200 includes an integrated circuit and the like.
  • the imaging system 10 has two observation modes. That is, the normal light observation mode in which the subject is irradiated with white light and the reflected light is imaged by the imaging device 300, and the infrared fluorescence generated by the excitation light when the subject is irradiated with near-infrared excitation light. And an infrared light observation mode in which an image is picked up by the image pickup apparatus 300 are prepared.
  • FIG. 2 shows a schematic diagram of an image displayed on the display device 500 acquired in the normal light observation mode. In the normal light observation mode, the external structure of the subject is observed.
  • FIG. 3 shows a schematic diagram of an image acquired in the infrared light observation mode and displayed in the first display mode. In FIG. 3, the shaded portion schematically shows a portion where fluorescence is observed.
  • FIG. 4 shows a schematic diagram of an image acquired in the infrared light observation mode and displayed in the second display mode.
  • the resolution as high as the normal light observation mode cannot be obtained for the background, but the position where the fluorescence is emitted with respect to the background can be confirmed.
  • the lesion is observed as follows. First, observation is performed in the normal light observation mode. In observation of a place where a lesion or the like is likely to be observed, the normal light observation mode is switched to the infrared light observation mode, and the lesion or the like is confirmed. Thereafter, the infrared light observation mode is switched to the normal light observation mode, and a treatment such as excision of a lesioned part is performed in the normal light observation mode in which a good field of view is obtained.
  • FIG. 5 illustrates the setting of the light source 210 and the detection processing 124 for each of the normal light observation mode, the infrared light observation mode (first display mode), and the infrared light observation mode (second display mode).
  • An example of setting of detection parameters, setting of luminance control performed by the luminance control unit 132, and setting of creation of a display image in the post-processing 128 is shown.
  • step S1 the video processor 100 sets the observation mode and the display mode. That is, the control circuit 140 acquires information on the observation mode selected by the user from the input device 160. The control circuit 140 sets various setting values to values corresponding to the respective modes based on the acquired information.
  • step S2 the video processor 100 sets the light source 210. That is, the control circuit 140 outputs information related to the setting of the light source to the light amount control circuit 230 of the light source device 200 based on the mode setting. For example, as shown in FIG. 5, in the normal light observation mode, the output of the IR light source 211 is turned off, the outputs of the R light source 212, the G light source 213, and the B light source 214 are turned on, and the outputs of these light sources are the same. It is said to be about. As a result, the intensity of the emitted R light (red light), the intensity of G light (green light), and the intensity of B light (blue light) are substantially equal, and the illumination light becomes white light.
  • FIG. 7 shows a schematic diagram of the relationship between the light sources and their output intensities at this time.
  • the subject In the normal light observation mode, the subject is irradiated with white light.
  • the reflected light is imaged by the imaging unit 310 of the imaging device 300 via the optical system 410 of the rigid endoscope 400. That is, the imaging apparatus 300 creates a video signal including luminance information of each color corresponding to the color of the subject.
  • the subject in the infrared light observation mode, the subject is irradiated with strong near-infrared light and weak B light and G light. At this time, reflected light of B light, G light, and IR light (near infrared light) corresponding to the color of the subject enters the optical system 410 of the rigid mirror 400. Further, infrared fluorescence having a wavelength longer than that of near-infrared light generated by being excited by IR light enters the optical system 410 of the rigid mirror 400. An outline of the intensity of light of each wavelength incident on the rigid mirror 400 is shown in FIG.
  • the reflected light of near infrared excitation light incident on the optical system 410 of the rigid mirror 400 is B light or G light. Stronger than reflected light.
  • strength of the near-infrared excitation light in illumination light is higher than the intensity
  • strength of infrared fluorescence is lower than the intensity
  • An outline of the transmission characteristics of the filter 412 included in the optical system 410 of the rigid mirror is shown by a broken line in FIG.
  • the filter 412 transmits B light, G light, R light, and infrared light, but blocks near infrared light that is reflected light of excitation light.
  • FIG. 9 shows an outline of the intensity of light of each wavelength that passes through the filter 412 and enters the imaging device included in the imaging unit 310 of the imaging device 300.
  • near-infrared light is blocked by the filter 412 and therefore does not enter the image sensor.
  • B light and G light with relatively high intensity and infrared fluorescence with relatively low intensity enter the image sensor.
  • FIG. 9 schematically shows the relationship between the wavelength and the sensitivity relating to the imaging element (B sensitivity element) for sensing blue light of the imaging unit 310 with a dotted line.
  • the image of B light is acquired by the B sensitivity element.
  • the relationship between the wavelength and sensitivity relating to the image sensor (G sensitivity element) that senses the green light of the imaging unit 310 is schematically shown by a one-dot chain line.
  • the G light image is acquired by the G sensitivity element.
  • the relationship between the wavelength and the sensitivity relating to the imaging element (R sensitivity element) that senses red light of the imaging unit 310 is schematically shown by a broken line. In this way, an infrared fluorescence image is acquired by the R sensitivity element.
  • the sensitivity of the R sensitivity element to infrared light is not so high as compared to the sensitivity to R light or the like. Therefore, infrared fluorescence is less likely to be captured compared to B light or G light.
  • the imaging apparatus 300 generates a video signal including luminance information of each color corresponding to the color of the subject and the amount of the fluorescent material.
  • step S3 the video processor 100 acquires a video signal. That is, the video signal acquisition circuit 110 acquires the video signal generated by the imaging unit 310 from the imaging unit 310 of the imaging device 300. This video signal is transmitted to the image processing circuit 120. The video signal is subjected to processing such as color adjustment, noise reduction, and gain adjustment in the pre-stage processing 122. Note that the video signal after the pre-processing 122 includes an R image signal related to R light, a G image signal related to G light, and a B image signal related to B light. Video signals for each color, such as R image signals, G image signals, and B image signals, will be referred to as color-specific video signals. After the pre-processing 122, the detection processing 124 is performed.
  • the detection parameter multiplied by the video signal of each color in the detection process 124 varies depending on the observation mode.
  • An example of the detection parameter in each mode is shown in FIG.
  • the detection processing 124 multiplies the detection parameter for each color and applies an appropriate gain to the video signal transmitted to the photometry unit 131 of the luminance adjustment circuit 130.
  • step S4 the video processor 100 performs photometry processing according to the mode. That is, the photometry unit 131 of the luminance adjustment circuit 130 receives the video signal after the detection processing from the image processing circuit 120, and performs photometry processing based on the video signal.
  • the photometry unit 131 of the luminance adjustment circuit 130 receives the video signal after the detection processing from the image processing circuit 120, and performs photometry processing based on the video signal.
  • a video signal including luminance information of the R image signal, the G image signal, and the B image signal detected by the detection process 124 is used for the photometric process.
  • a video signal including only luminance information of the R image signal detected by the detection processing 124 that is, a color-specific video signal is used for the photometric processing.
  • the detection parameters are 0.8 for red and 0.2 for green.
  • luminance information of the R image signal and the G image signal is used. May be used, or only the luminance information of the R image signal may be used.
  • step S5 the video processor 100 performs luminance control based on the result of the photometry process. That is, the brightness control unit 132 of the brightness adjustment circuit 130 adjusts various parameters so that the brightness of the image represented by the video signal is appropriate. For example, the light source control unit 134 of the luminance control unit 132 adjusts the output of the light source 210 of the light source device 200. In addition, the gain control unit 135 of the luminance control unit 132 adjusts the gain of the AGC 126 performed by the image processing circuit 120. In addition, the exposure control unit 136 of the luminance control unit 132 adjusts the exposure in the imaging unit 310 of the imaging device 300.
  • the exposure in the imaging unit 310 is set so that an image is created for each field. Furthermore, the exposure time is limited within one field by the electronic shutter, so that an image obtained by imaging is adjusted so as not to become too bright.
  • the gain of the AGC 126 is adjusted according to the luminance.
  • the output of the light source 210 is also adjusted according to the luminance.
  • the output of the IR light source 211 of the light source 210 is set to the maximum.
  • the outputs of the G light source 213 and the B light source 214 of the light source 210 are adjusted according to the luminance of the background.
  • the gain of the AGC 126 is adjusted according to the luminance.
  • an image is created every 1 to 6 fields, and the number of fields in which one image is created is adjusted according to the luminance. By performing multiple exposure using a plurality of fields, the gain of image processing performed by the image processing circuit 120 can be kept low. As a result, it is possible to reduce the noise of the finally displayed image.
  • the gain is specially described.
  • the pre-processing 122 can apply a gain of up to about 4 times
  • the detection processing 124 can apply a gain of up to about 8 times
  • the AGC 126 can apply a gain of up to about 8 times. It is possible to apply a gain up to several hundred times in total. With such a high gain, bright observation can be performed even in an infrared light observation mode with low luminance.
  • step S6 the video processor 100 performs image processing corresponding to the luminance control on the video signal acquired by the imaging device 300, and causes the display device 500 to display an image after the image processing. That is, the image processing circuit 120 of the video processor 100 performs image processing including the AGC 126 performed under the control of the luminance control unit 132. The image processing circuit 120 outputs the video signal after the image processing to the display device 500 and causes the display device 500 to display an image.
  • the image processing circuit 120 synthesizes the R image signal, the G image signal, and the B image signal to create a color image to be displayed on the display device 500.
  • the image created here is an image close to that when the subject is observed with the naked eye through the rigid endoscope 400.
  • an image representing the intensity of fluorescence to be displayed on the display device 500 is created based on an image acquired as an R image signal by the imaging unit 310.
  • the R image signal obtained by the imaging unit 310 is converted into a G image signal and a B image signal having a luminance corresponding to the luminance. That is, the image displayed on the display device 500 is an image including the G image signal and the B image signal according to the luminance of the R image signal, that is, the intensity of the fluorescence generated in the subject, according to the fluorescence intensity. It becomes a cyan image having a high luminance.
  • the peak of human eye sensitivity specifically luminous sensitivity
  • the fluorescence that should be noticed in fluorescence observation is displayed in a color close to green instead of red. This is because it can be improved.
  • an image representing the brightness of the background to be displayed on the display device 500 is created based on the G image signal obtained by the imaging unit 310.
  • the G image signal obtained by the imaging unit 310 is converted into an R image signal having a luminance corresponding to the luminance. That is, the image displayed on the display device 500 is an image including the R image signal according to the luminance of the G image signal obtained by the imaging unit 310, that is, the brightness of the subject, and depends on the brightness of the subject. A red image having a high luminance is obtained.
  • the fluorescence acquired as red is converted into cyan
  • the background acquired as green is converted into red because the background is often red when generally observed inside the body. . That is, by reducing the difference between the image displayed on the display device 500 in the normal light observation mode and the background image of the image displayed on the display device 500 in the infrared light observation mode, the display is performed so as to reduce the sense of discomfort. The image color has been adjusted.
  • step S7 the video processor 100 determines whether or not the observation mode has been changed. When the observation mode is changed, the process returns to step S1, and the processes from step S1 to step S7 are repeated. On the other hand, when the observation mode is not changed, the process proceeds to step S8.
  • step S8 the video processor 100 determines whether or not to end this process. If not, the process returns to step S3 and repeats the processes of steps S3 to S8. On the other hand, when it is determined that the process is to be terminated, this process is terminated. The processing from step S1 to step S8 is repeated for each field in accordance with the timing of the field related to imaging by the imaging unit 310.
  • the imaging system 10 in which the normal light observation mode and the infrared light observation mode are prepared as the observation modes has been described. However, it is not limited to this. The technique described above can also be applied to an imaging system having only an infrared light observation mode.
  • the excitation light is near infrared light and the fluorescence is infrared light.
  • the present invention is not limited to this. Any wavelength may be used as excitation light and fluorescence.
  • the above-described technique may be applied to autofluorescence observation obtained by exciting a fluorescent substance present in a living body.
  • the detection process 124 a video signal corresponding to fluorescence is detected, and photometric processing is performed to acquire the brightness of the fluorescence based on the detected video signal.
  • the imaging system 10 using the rigid endoscope 400 and the imaging apparatus 300 is illustrated, but the present invention is not limited to this.
  • the above-described technique can be applied to, for example, a flexible mirror that transmits an optical image through an optical fiber.
  • the above-described technique can be applied to, for example, an electronic endoscope provided with an image sensor at the tip.
  • the electronic endoscope may be a flexible endoscope or a rigid endoscope.
  • the above-mentioned technique is applicable also to other apparatuses, such as a fluorescence microscope, for example.
  • the light source 210 of the light source device 200 is exemplified by the case where a plurality of laser light sources or light emitting diodes having different light sources for each color are provided, the present invention is not limited thereto.
  • a blue light source and a fluorescent material are provided, and white light is emitted by combining blue light emitted from the light source and fluorescence emitted from the fluorescent material using the blue light as excitation light.
  • a white semiconductor light source may be used.
  • a lamp such as a xenon lamp or a halogen lamp may be used as the light source.
  • various light sources not shown in the above-described embodiment may be provided as necessary.
  • the present invention is not limited thereto.
  • the near-infrared light source and the white light source or the plurality of light sources that generate white light may be provided in separate light source devices.
  • either one or both of a white light source and a near-infrared light source may be provided integrally with the video processor 100.
  • the image sensor included in the image capturing unit 310 outputs video signals of three colors of RGB.
  • the present invention is not limited to this.
  • an imaging device provided with a complementary color filter may be used.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

撮像システムのための制御装置(100)は、映像信号取得部(110)と、測光部(131)と、輝度制御部(132)とを有する。映像信号取得部(110)は、被検体に対して照射された励起光によって励起されて被検体から放射される蛍光を撮像した映像信号を取得する。測光部(131)は、映像信号のうち、蛍光に対応した1色の色別映像信号のみに基づいて蛍光の明るさを取得する。輝度制御部(132)は、測光部で取得された蛍光の明るさに基づいて、映像信号に基づき作成される蛍光画像の輝度を調整する。

Description

撮像システムのための制御装置、撮像システム、及び撮像システムの制御方法
 本発明は、撮像システムのための制御装置、撮像システム、及び撮像システムの制御方法に関する。
 一般に、内視鏡システムを用いた観察において、白色光を照射して被検体を観察するのみならず、他の光を照射して被検体を観察する観察方法が知られている。例えば、所定の励起光を照射して、そのときに発生する蛍光を観察することで、通常の白色光を用いた観察では得られない情報を得ることができることが知られている。日本国特開2007-313171号公報には、反射光画像と自家蛍光画像とを順次取得して、これらの画像を重畳した画像をユーザに提示することができる内視鏡システムについて開示されている。また、日本国特開2007-313171号公報には、励起光として近赤外光が用いられることが開示されている。
 蛍光は反射光等と比較して光強度が低い。このため、反射光等の場合と同様の方法で画像の輝度に係る条件を調整したのでは、蛍光について適切な輝度を有する画像を得られないことがある。
 本発明は、適切な輝度の蛍光画像を得ることができる撮像システムのための制御装置、撮像システム、及び撮像システムの制御方法を提供することを目的とする。
 本発明の一態様によれば、撮像システムのための制御装置は、被検体に対して照射された励起光によって励起されて被検体から放射される蛍光を撮像した映像信号を取得するように構成された映像信号取得部と、前記映像信号に含まれる前記蛍光に対応した1色の色別映像信号のみに基づいて前記蛍光の明るさを取得する測光部と、前記測光部で取得された前記蛍光の明るさに基づいて、前記映像信号に基づき作成される蛍光画像の輝度を調整する輝度制御部とを備える。
 本発明の一態様によれば、撮像システムは、上記の制御装置と、前記励起光を射出する光源と、前記蛍光を撮像する撮像装置とを備える。
 本発明の一態様によれば、撮像システムの制御方法は、被検体に対して照射された励起光によって励起されて被検体から放射される蛍光を撮像した映像信号を取得することと、前記映像信号に含まれる前記蛍光に対応した1色の色別映像信号のみに基づいて前記蛍光の明るさを取得することと、取得された前記蛍光の明るさに基づいて、前記映像信号に基づき作成される蛍光画像の輝度を調整することとを含む。
 本発明によれば、適切な輝度の蛍光画像を得ることができる撮像システムのための制御装置、撮像システム、及び撮像システムの制御方法を提供できる。
図1は、一実施形態に係る撮像システムの構成例の概略を示すブロック図である。 図2は、通常光観察モードにより得られる画像例の概略を示す模式図である。 図3は、赤外光観察モードにより得られる画像例の概略を示す模式図である。 図4は、赤外光観察モードで背景画像を重畳した場合に得られる画像例の概略を示す模式図である。 図5は、観察モード毎の各種設定の一例の一覧を示す図である。 図6は、撮像システムの動作の一例を示すフローチャートである。 図7は、各光源とそれらの出力強度との関係の一例の概略を示す模式図である。 図8は、硬性鏡に入射する各波長の光の強度の一例の概略を示す模式図である。 図9は、撮像素子に入射する各波長の光の強度の一例の概略を示す模式図である。
 本発明の一実施形態について図面を参照して説明する。本実施形態は、医療用の硬性鏡と撮像装置とを用いて画像を取得する撮像システムに係る。特に、本実施形態に係る撮像システムは、観察対象である被検体に励起光を照射したときに放射される蛍光を撮像するための機能を有する。
 〈システム構成〉
 本実施形態に係る撮像システム10の構成例の概略を図1に示す。図1に示すように、撮像システム10は、撮像システム10の制御装置として機能するビデオプロセッサ100と、光源装置200と、撮像装置300と、硬性鏡400と、表示装置500とを備える。図1においては、破線の矢印は、撮像装置300で取得されて表示装置500に表示されるまでの映像信号の流れを示す。一点鎖線の矢印は、後述する画像の明るさを調整する輝度制御に係る制御信号の流れを示す。実線の矢印は、上述の信号以外の信号等の流れを示す。
 一般的な光学視管である硬性鏡400は、撮像装置300が接続されるように構成されている。撮像装置300は、撮像素子等を含む撮像部310を備える。撮像素子は、例えばCCDイメージセンサ又はCMOSイメージセンサ等を含む。また、本実施形態では、撮像部310に3板方式が採用されているものとする。なお、撮像部310に単板方式が採用されてもよい。ただし、単板方式の場合には、同時化処理等の処理が必要となる。撮像部310は、撮像素子を用いて撮像素子の撮像面上に形成された被検体の像に係る映像信号を生成する。
 硬性鏡400は、光学系410と、照明窓420とを備える。光学系410は、撮像装置300の撮像素子の撮像面に被検体の像を結像させる。また、光学系410は、近赤外光を遮断するフィルタ412を含む。フィルタ412の分光特性については、後述する。このフィルタ412は、対物光学系の前面に配置されていてもよいし、リレーレンズの中の1つの光学素子として設けられてもよいし、硬性鏡400の接眼部に設けられてもよい。また、同様のフィルタが、硬性鏡400ではなく撮像装置300の撮像部310に設けられてもよい。照明窓420は、光源装置200から導かれた照明光を射出する窓である。照明窓420から射出される照明光は、撮像部310で撮像される被検体を照明する。
 光源装置200は、光源210と、光源駆動回路220と、光量制御回路230とを備える。光源210は、例えば複数の光源を有する。すなわち、光源210には、近赤外光を射出するIR光源211と、赤色光を射出するR光源212と、緑色光を射出するG光源213と、青色光を射出するB光源214とが含まれる。R光源から射出される赤色光と、G光源から射出される緑色光と、B光源から射出される青色光とが合波されることで、白色光が調製される。これらの光源は、例えば半導体レーザ光源又は発光ダイオード等種々の半導体光源で構成され得る。
 光源駆動回路220は、光源210に含まれる各光源を駆動する。光量制御回路230は、光源駆動回路220の動作を制御する。すなわち、光量制御回路230は、光源210のオン又はオフ、及び各光源が射出する光の強度等を制御する。光源210から射出された光は、ライトガイドファイバで導光されて硬性鏡400の照明窓420まで導かれる。
 なお、硬性鏡400の照明窓420まで導かれる光の光量は、光源210が射出する光の強度によって調整されてもよいし、その他の方法によって調整されてもよい。例えば、光源210とライトガイドファイバの光入射端との間に絞りが設けられ、当該絞りの開口率が調整されることで、硬性鏡400に導かれる光量が調整されてもよい。また、光源210の出力を変更するために、光源210に供給される電力は、電流値を変更することで調整されてもよいし、パルス幅変調(pulse width modulation;PWM)制御によって調整されてもよい。
 表示装置500は、例えば液晶ディスプレイといった一般的な表示装置である。表示装置500は、後述するビデオプロセッサ100の画像処理回路120によって画像処理された映像信号に基づいて、画像を表示する。
 ビデオプロセッサ100は、映像信号取得回路110と、画像処理回路120と、輝度調整回路130と、制御回路140と、記憶装置150と、入力装置160とを備える。映像信号取得回路110は、撮像装置300から、撮像部310で生成された映像信号を取得する。映像信号取得回路110は、取得した映像信号を画像処理回路120へと伝達する。このように、例えば映像信号取得回路110は、蛍光を撮像した映像信号を取得するように構成された映像信号取得部として機能する。
 画像処理回路120は、映像信号取得回路110から取得した映像信号に対して各種画像処理を施し、画像処理後の映像信号を表示装置500へと出力する。画像処理回路120で行われる処理には、前段処理122と、検波処理124と、オートゲインコントロール(AGC)126と、後段処理128とが含まれる。
 前段処理122では、映像信号取得回路110から取得した映像信号に対して、色処理、フィルタリングによるノイズの低減、ゲイン調整等の処理が行われる。
 検波処理124では、前段処理122の後の映像信号について、色毎に所定の係数である検波パラメータが乗算される。検波パラメータは、観察モードの設定等に応じて変更される。例えば、後述するように、観察モードが通常光観察(white light imaging;WLI)モードの場合には、赤色(R)、緑色(G)及び青色(B)の各色の映像信号の比は、R:G:B=0.45:0.45:0.10に設定される。また、赤外光観察(infrared imaging;IRI)モードの場合には、各色の映像信号の比は、R:G:B=1:0:0に設定される。また、赤外光観察モードで背景画像も取得する場合には、各色の映像信号の比は、R:G:B=0.8:0.2:0.0に設定される。さらに、検波処理124では、所定のゲインが加えられてもよい。検波処理後の映像信号は、後述の輝度調整回路130へと伝達される。
 AGC126では、検波処理124後の映像信号について、各色の信号強度が適切な範囲内となり画像の明るさが適切なものとなるように、映像信号に対するゲインの調整が行われる。このゲイン調整は、輝度調整回路130の制御下で行われる。
 後段処理128では、AGC126後の映像信号を用いて、表示装置500に表示させる画像を生成するための各種画像処理が行われる。後段処理128後の映像信号は、表示装置500へと伝達される。
 輝度調整回路130は、画像処理回路120で処理される映像信号が表す画像が適切な輝度を有するものとなるように、撮像システム10の各種動作の調整を行う。輝度調整回路130は、測光部131と、輝度制御部132とを含む。測光部131は、検波処理124後の映像信号を取得する。測光部131は、取得した映像信号に基づいて、映像信号が表す画像の輝度を算出する。測光部131は、算出結果を輝度制御部132へと伝達する。
 輝度制御部132は、測光部131から取得した画像の輝度の情報に基づいて、各種設定を変更させる。輝度制御部132は、光源制御部134と、ゲイン制御部135と、露出制御部136とを含む。
 光源制御部134は、画像の明るさが適当なものとなるように、光源装置200の光源210の出力を調整する。光源制御部134は、決定した光源210の出力に係る情報を、光源装置200の光量制御回路230へと伝達する。光量制御回路230は、後述する制御回路140から受け取った情報と光源制御部134から受け取った出力に係る情報とに基づいて、光源210の動作を制御する。
 ゲイン制御部135は、画像の輝度が適当なものとなるように、画像処理回路120で行われる画像処理のパラメータの1つであるAGC126のゲインの設定を決定する。ゲイン制御部135は、決定したゲイン設定を画像処理回路120へと伝達する。画像処理回路120は、ゲイン制御部135から取得したゲイン設定に基づいて、AGC126の処理を行う。
 露出制御部136は、画像の明るさが適当なものとなるように、撮像装置300の撮像部310の露出設定を決定する。露出制御部136は、決定した露出設定を撮像部310へと伝達する。撮像部310は、露出制御部136から取得した露出設定に基づいて、撮像動作を行う。例えば、撮像部310による露光時間は、この露出設定に基づく。
 制御回路140は、ビデオプロセッサ100の各部の動作を制御する。制御回路140は、例えば画像処理回路120及び輝度調整回路130と接続しており、画像処理回路120及び輝度調整回路130の動作について指令を出す。また、制御回路140は、光源装置200の光量制御回路230と接続しており、光量制御回路230に必要な情報を送信する。例えば、制御回路140は、観察モードが通常光観察モードであるのか赤外光観察モードであるのかといった情報や、光源210をオンにするのかオフにするのかといった情報を光量制御回路230へと送信する。
 記憶装置150は、例えば半導体メモリやハードディスク等の記憶装置を含む。記憶装置150は、制御回路140に接続されている。また、記憶装置150は、画像処理回路120又は輝度調整回路130等と接続されていてもよい。記憶装置150には、各部の動作に必要なプログラムや設定値等が記録されている。
 入力装置160は、例えばスイッチ、キーボード、タッチパネル等の入力装置を含む。制御回路140は、入力装置160を介して、ユーザからの指示を受け取ることができる。
 画像処理回路120、輝度調整回路130及び制御回路140は、Central Processing Unit(CPU)、Application Specific Integrated Circuit(ASIC)、又はField Programmable Gate Array(FPGA)等の集積回路等を含む。画像処理回路120、輝度調整回路130及び制御回路140は、それぞれ1つの集積回路等で構成されてもよいし、複数の集積回路等が組み合わされて構成されてもよい。また、画像処理回路120、輝度調整回路130及び制御回路140のうち2つ以上が1つの集積回路等で構成されてもよい。これら集積回路の動作は、例えば記憶装置150や集積回路内の記録領域に記録されたプログラムに従って行われる。また、光源装置200の光量制御回路230も、同様に集積回路等を含む。
 〈システムの動作〉
 本実施形態に係る撮像システム10の動作について説明する。撮像システム10は、2つの観察モードを有する。すなわち、被検体に白色光を照射してその反射光を撮像装置300で撮像する通常光観察モードと、被検体に近赤外の励起光を照射して当該励起光によって発生した赤外の蛍光を撮像装置300で撮像する赤外光観察モードとが用意されている。図2に通常光観察モードで取得される表示装置500に表示される画像の模式図を示す。通常光観察モードでは、被検体の外観的構造等が観察される。
 一方、赤外光観察モードでは、例えば病変や粘膜深部の血管等、特定の物体が観察される。さらに、赤外光観察モードには、赤外の蛍光のみを表示装置500に表示する第1の表示モードと、赤外の蛍光に加えて可視光領域の背景画像を重畳させて表示装置500に表示する第2の表示モードとが用意されている。図3に赤外光観察モードで取得され、第1の表示モードで表示される画像の模式図を示す。図3において、網掛けで示されている部分は蛍光が認められる部分を模式的に示す。また、図4に赤外光観察モードで取得され、第2の表示モードで表示される画像の模式図を示す。第2の表示モードでは、背景について通常光観察モード程の解像度は得られないが、背景に対して蛍光が発せられている位置が確認され得る。
 一般に、病変部の観察は次のように行われる。初めに通常光観察モードで観察が行われる。病変等がありそうな場所の観察においては、通常光観察モードから赤外光観察モードへと切り替えられて病変等の確認が行われる。その後、赤外光観察モードから通常光観察モードへと切り換えられて、良好な視界が得られる通常光観察モードにて病変部等の切除等の処置が行われる。
 撮像システム10では、観察モード毎に、光源210の出力や、画像処理回路における各種パラメータ等の基本設定が異なる。各設定の一例を図5に示す。図5は、通常光観察モードと、赤外光観察モード(第1の表示モード)と、赤外光観察モード(第2の表示モード)とのそれぞれについて、光源210の設定、検波処理124における検波パラメータの設定、輝度制御部132によって行われる輝度制御の設定、及び後段処理128における表示画像の作成の設定の一例を示す。
 本実施形態に係る撮像システム10の動作について、図6に示すフローチャートを参照して説明する。
 ステップS1において、ビデオプロセッサ100は、観察モード及び表示モードの設定を行う。すなわち、制御回路140は、入力装置160からユーザが選択した観察モードの情報を取得する。制御回路140は、取得した情報に基づいて、各種設定値を各モードに対応した値に設定する。
 ステップS2において、ビデオプロセッサ100は、光源210の設定を行う。すなわち、制御回路140は、モード設定に基づいて、光源装置200の光量制御回路230に、光源の設定に係る情報を出力する。例えば図5に示すように、通常光観察モードのときは、IR光源211の出力はオフとされ、R光源212、G光源213及びB光源214の出力はオンとされ、これら光源の出力は同程度とされる。その結果、射出されるR光(赤色光)の強度とG光(緑色光)の強度とB光(青色光)の強度とがほぼ等しくなり、照明光は白色光となる。
 また、赤外光観察モードのときには、近赤外励起光を射出するIR光源211の出力は強くされ、G光源213及びB光源214の出力は弱くされる。また、R光源212の出力はオフとされる。このときの各光源とそれらの出力強度との関係の模式図を図7に示す。
 通常光観察モードのとき、白色光が被検体に照射される。その反射光が硬性鏡400の光学系410を介して、撮像装置300の撮像部310によって撮像される。すなわち、撮像装置300によって、被検体の色に応じた各色の輝度情報が含まれる映像信号が作成される。
 一方、赤外光観察モードのとき、強い近赤外光、並びに弱いB光及びG光が被検体に照射される。このとき、被検体の色に応じたB光、G光及びIR光(近赤外光)の反射光が硬性鏡400の光学系410に入射する。また、IR光によって励起されることで生じた近赤外光よりも長波長の赤外色の蛍光が硬性鏡400の光学系410に入射する。硬性鏡400に入射する各波長の光の強度の概略を図8に示す。照明光において近赤外励起光の強度は、B光又はG光の強度よりも高いので、硬性鏡400の光学系410に入射する近赤外励起光の反射光は、B光又はG光の反射光よりも強い。また、照明光における近赤外励起光の強度はB光又はG光の強度よりも高いものの、赤外の蛍光の強度は、B光及びG光の反射光の強度よりも低い。硬性鏡の光学系410に含まれるフィルタ412の透過特性の概略を図8に破線で示す。このように、フィルタ412は、B光、G光、R光及び赤外光を透過するが、励起光の反射光である近赤外光を遮断する。
 フィルタ412を通過して、撮像装置300の撮像部310に含まれる撮像素子に入射する各波長の光の強度の概略を図9に示す。図9に示すように、近赤外光は、フィルタ412によって遮断されるため、撮像素子へは入射しない。その結果、比較的強度が高いB光及びG光と、比較的強度が低い赤外の蛍光が撮像素子へ入射する。
 図9には、撮像部310の青色の光を感知する撮像素子(B感度素子)に係る波長と感度との関係を点線で模式的に示す。このように、B光の画像は、B感度素子によって取得される。撮像部310の緑色の光を感知する撮像素子(G感度素子)に係る波長と感度との関係を一点鎖線で模式的に示す。このように、G光の画像は、G感度素子によって取得される。撮像部310の赤色の光を感知する撮像素子(R感度素子)に係る波長と感度との関係を破線で模式的に示す。このように、赤外の蛍光の画像は、R感度素子によって取得される。なお、R感度素子の赤外光に対する感度は、R光などに対する感度と比較してそれほど高くない。したがって、赤外の蛍光は、B光又はG光と比較して、捉えられにくい。以上のように、撮像装置300によって、被検体の色及び蛍光物質の量に応じた各色の輝度情報が含まれる映像信号が作成される。
 ステップS3において、ビデオプロセッサ100は、映像信号を取得する。すなわち、映像信号取得回路110は、撮像装置300の撮像部310から、撮像部310が生成した映像信号を取得する。この映像信号は、画像処理回路120へと伝達される。映像信号は、前段処理122において色調整、ノイズの低減、ゲインの調整等の処理が行われる。なお、前段処理122の後の映像信号には、R光に係るR画像信号と、G光に係るG画像信号と、B光に係るB画像信号とが含まれる。R画像信号、G画像信号及びB画像信号など色毎に係る映像信号を色別映像信号と称することにする。前段処理122がされた後、検波処理124が行われる。
 上述のとおり、検波処理124で各色の映像信号に乗算される検波パラメータは、観察モードによって異なる。各モードにおける検波パラメータの一例を図5に示す。検波処理124により、色毎に検波パラメータが乗算され、適当なゲインがかけられた映像信号は、輝度調整回路130の測光部131へと伝達される。
 ステップS4において、ビデオプロセッサ100は、モードに応じた測光処理を行う。すなわち、輝度調整回路130の測光部131は、画像処理回路120から検波処理後の映像信号を受け取り、この映像信号に基づいて測光処理を行う。例えば通常光観察モードでは、検波処理124で検波されたR画像信号、G画像信号及びB画像信号の輝度情報が含まれる映像信号が測光処理に用いられる。一方、赤外光観察モードでは、例えば検波処理124で検波されたR画像信号の輝度情報のみが含まれる映像信号、すなわち色別映像信号が測光処理に用いられる。なお、赤外光観察モードの第2の表示モードでは、検波パラメータが赤色は0.8、緑色は0.2となっているが、測光処理には、R画像信号及びG画像信号の輝度情報が含まれる映像信号が用いられてもよいし、R画像信号の輝度情報のみが用いられてもよい。
 ステップS5において、ビデオプロセッサ100は、測光処理の結果に基づいて、輝度制御を行う。すなわち、輝度調整回路130の輝度制御部132は、映像信号によって表される画像の輝度が適切になるように、各種パラメータを調整する。例えば、輝度制御部132の光源制御部134は、光源装置200の光源210の出力を調整する。また、輝度制御部132のゲイン制御部135は、画像処理回路120で行われるAGC126のゲインを調整する。また、輝度制御部132の露出制御部136は、撮像装置300の撮像部310における露光を調整する。
 例えば、通常光観察モードでは、次のような設定がなされる。すなわち、撮像部310における露光は、1フィールド毎に画像が作成されるように設定される。さらに、電子シャッタによって1フィールド内で露光時間を制限することで、撮像により得られる画像が明るくなり過ぎないように調整される。また、AGC126のゲインは、輝度に応じて調整される。また、光源210の出力も輝度に応じて調整される。
 一方、赤外光観察モードでは、蛍光の輝度は低いため、例えば次のような設定がなされる。すなわち、光源210のIR光源211の出力は、最大に設定される。第2の表示モードが用いられるために背景光も取得する場合には、光源210のG光源213及びB光源214の出力は、背景の輝度に応じて調整される。また、AGC126のゲインは、輝度に応じて調整される。撮像部310における露光は、1乃至6フィールド毎に画像が作成されるものとし、何フィールドで1つの画像が作成されるかは、輝度に応じて調整されるものとする。複数のフィールドを用いて多重露光することで、画像処理回路120で行われる画像処理のゲインを低く抑えることができる。その結果、最終的に表示される画像のノイズを低減させることができる。
 なおゲインについて特記すると、例えば、前段処理122では最大4倍程度のゲインをかけることができ、検波処理124では最大8倍程度のゲインをかけることができ、AGC126では最大8倍程度のゲインをかけることができ、合計で最大数百倍程度のゲインをかけることができる。このような高いゲインによって、輝度が低い赤外光観察モードでも明るい観察を行うことができる。
 ステップS6において、ビデオプロセッサ100は、撮像装置300で取得された映像信号に対して、輝度制御に応じた画像処理を行い、画像処理後の画像を表示装置500に表示させる。すなわち、ビデオプロセッサ100の画像処理回路120は、輝度制御部132の制御下で行われるAGC126を含む画像処理を行う。画像処理回路120は、画像処理後の映像信号を表示装置500へと出力し、表示装置500に画像を表示させる。
 画像処理回路120は、例えば通常光観察モードでは、R画像信号と、G画像信号と、B画像信号とを合成し、表示装置500に表示させるカラー画像を作成する。ここで作成される画像は、硬性鏡400を介して肉眼で被検体を観察したときに近い画像となる。
 一方、赤外光観察モードでは、撮像部310でR画像信号として取得される画像に基づいて、表示装置500に表示させる蛍光の強度を表す画像を作成する。ここで、表示装置500で表示する画像の映像信号では、撮像部310で得られたR画像信号を、その輝度に応じた輝度のG画像信号とB画像信号とに変換する。すなわち、表示装置500に表示される画像は、R画像信号の輝度、すなわち、被検体で発生する蛍光の強度に応じた、G画像信号とB画像信号とを含む画像であり、蛍光強度に応じた輝度を有するシアン色の画像となる。これは人間の目の感度(比視感度)のピークが緑色域に属することを考慮し、蛍光観察において注目すべき蛍光を赤色ではなく緑色に近しい色で表示させることにより蛍光箇所の視認性を向上させることができるためである。
 また、赤外光観察モードにおける背景画像では、撮像部310で得られたG画像信号に基づいて、表示装置500に表示させる背景の明るさを表す画像が作成される。ここで、表示装置500で表示する画像の映像信号では、撮像部310で得られたG画像信号を、その輝度に応じた輝度のR画像信号に変換する。すなわち、表示装置500に表示される画像は、撮像部310で得られたG画像信号の輝度、すなわち、被検体の明暗に応じた、R画像信号を含む画像であり、被検体の明暗に応じた輝度を有する赤色の画像となる。ここでは、赤色として取得された蛍光をシアン色に変換し、緑色として取得された背景を赤色に変換しているのは、一般に体内を観察した場合、背景は赤色であることが多いためである。すなわち、通常光観察モードで表示装置500に表示される画像と赤外光観察モードで表示装置500に表示される画像の背景画像との差異を小さくすることで、違和感が小さくなるように、表示画像の色が調整されている。
 ステップS7において、ビデオプロセッサ100は、観察モードが変更されたか否かを判定する。観察モードが変更されたとき、処理はステップS1に戻り、ステップS1乃至ステップS7の処理を繰り返す。一方、観察モードが変更されていないとき、処理はステップS8に進む。
 ステップS8において、ビデオプロセッサ100は、本処理を終了するか否かを判定する。終了しないとき、処理はステップS3に戻り、ステップS3乃至ステップS8の処理を繰り返す。一方、処理を終了すると判定されたとき、本処理は終了する。ステップS1乃至ステップS8の処理は、撮像部310の撮像に係るフィールドのタイミングに合わせてフィールド毎に繰り返される。
 〈本システムの利点〉
 本実施形態によれば、赤外光観察モードでは、検波処理124によって、R画像信号のみに基づく映像信号、又はR画像信号に重みがつけられた映像信号を用いて測光処理が行われる。したがって、発光強度が低い蛍光の画像を示すR画像信号に応じた輝度制御が行われ得る。その結果、本実施形態に係る撮像システム10によれば、適切な輝度を有する蛍光画像が得られる。測光処理にG画像信号又はB画像信号が用いられると、R画像信号に係る輝度が低いにも関わらず、G画像信号又はB画像信号に係る高い輝度に由来して、R画像信号に係る輝度が低くなる方向に輝度制御が行われてしまうことがある。これに対して、本実施形態によれば、R画像信号に係る輝度が低くなる方向に不適当に輝度制御が行われてしまうことが回避される。
 〈変形例〉
 上述の実施形態の変形例についていくつか説明する。
 上述の実施形態では、観察モードとして、通常光観察モードと赤外光観察モードとが用意された撮像システム10について説明した。しかしながらこれに限らない。上述の技術は、赤外光観察モードのみを有する撮像システムにも適用され得る。
 また、上述の実施形態では、励起光を近赤外光とし、蛍光を赤外光としたが、これに限らない。励起光及び蛍光としてどのような波長が用いられてもよい。例えば、上述の技術は、生体に内在している蛍光物質を励起して得られる自家蛍光観察に適用されてもよい。何れの場合でも、検波処理124では蛍光に対応した映像信号が検波され、検波された映像信号に基づいて蛍光の明るさを取得する測光処理がなされる。
 また、上述の実施形態では、硬性鏡400と撮像装置300とを用いた撮像システム10について例示したが、これに限らない。上述の技術は、例えば、光ファイバで光学像を伝達する軟性鏡にも適用され得る。さらに、上述の技術は、例えば、先端部に撮像素子を備えた電子内視鏡にも適用され得る。電子内視鏡は、軟性鏡であっても硬性鏡であってもよい。さらに、内視鏡等に限らず、上述の技術は、例えば蛍光顕微鏡等、他の機器にも適用され得る。
 また、光源装置200の光源210は、色毎に光源が異なる複数のレーザ光源や発光ダイオードなどが設けられている場合を例示したが、これに限らない。例えば、青色の光源と蛍光物質とが設けられており、この光源から射出される青色光と、この青色光を励起光として蛍光物質から射出された蛍光とが合成されることで白色光が射出されるような白色半導体光源が用いられてもよい。また、光源として、例えばキセノンランプ又はハロゲンランプ等のランプが用いられてもよい。さらに、必要に応じて上述の実施形態では示さなかった種々の光源が設けられてもよい。
 また、上述の実施形態では、全ての光源が1つの光源装置200に設けられている場合を例示したがこれに限らない。例えば、近赤外光源と白色光源又は白色光を生成する複数の光源とは、それぞれ別個の光源装置に設けられていてもよい。また、白色光源等と近赤外光源とのうち、何れか一方又は両方が、ビデオプロセッサ100と一体として設けられていてもよい。
 また、上述の実施形態では、撮像部310に含まれる撮像素子は、RGBの3色の映像信号を出力するものとした。しかしながらこれに限らず、例えば補色フィルタが設けられた撮像装置が用いられてもよい。

Claims (9)

  1.  被検体に対して照射された励起光によって励起されて被検体から放射される蛍光を撮像した映像信号を取得するように構成された映像信号取得部と、
     前記映像信号に含まれる前記蛍光に対応した1色の色別映像信号のみに基づいて前記蛍光の明るさを取得する測光部と、
     前記測光部で取得された前記蛍光の明るさに基づいて、前記映像信号に基づき作成される蛍光画像の輝度を調整する輝度制御部と
     を備える撮像システムのための制御装置。
  2.  前記輝度制御部は、前記励起光の強度と、前記映像信号を作成する際の露出設定と、前記蛍光画像を作成する際の画像処理パラメータとのうち少なくとも何れか1つを調整することで、前記蛍光画像の輝度を調整する、請求項1に記載の制御装置。
  3.  前記輝度制御部は、前記励起光の強度を最大にし、前記画像処理パラメータに含まれるゲインの値を調整することで、前記蛍光画像の輝度を調整する、請求項2に記載の制御装置。
  4.  前記励起光は、近赤外光であり、
     前記蛍光は、前記近赤外光よりも長波長の赤外光であり、
     前記映像信号は、前記蛍光としての前記赤外光を撮像することにより得られる映像信号であり、
     前記測光部は、前記蛍光に対応した1色の色別映像信号として、前記映像信号に含まれる赤色に対応した色別映像信号に基づいて前記蛍光の明るさを取得する、
     請求項1に記載の制御装置。
  5.  前記輝度制御部は、前記被検体を照明する光の光源を制御する光源制御部を含み、
     前記光源制御部は、前記光源に前記励起光と共に前記励起光と波長が異なる照明光も射出させる、請求項1に記載の制御装置。
  6.  前記励起光に係る蛍光に基づく画像と、前記照明光に基づく画像とを作成する画像処理回路をさらに備える請求項5に記載の制御装置。
  7.  前記輝度制御部は、前記被検体を照明する光の光源を制御する光源制御部を含み、
     前記光源制御部は、前記光源に前記励起光又は白色の照明光を射出させ、
     前記光源に前記励起光を射出させているときには、前記測光部は、前記映像信号のうち、前記蛍光に対応した1色の色別映像信号のみに基づいて前記蛍光の明るさを取得し、
     前記光源に前記白色の照明光を射出させているときには、前記測光部は、前記映像信号のうち、全ての色に対応した色別映像信号に基づいて前記被検体の像の明るさを取得する、
     請求項1に記載の制御装置。
  8.  請求項1に記載の制御装置と、
     前記励起光を射出する光源と、
     前記蛍光を撮像する撮像装置と
     を備える撮像システム。
  9.  被検体に対して照射された励起光によって励起されて被検体から放射される蛍光を撮像した映像信号を取得することと、
     前記映像信号に含まれる前記蛍光に対応した1色の色別映像信号のみに基づいて前記蛍光の明るさを取得することと、
     取得された前記蛍光の明るさに基づいて、前記映像信号に基づき作成される蛍光画像の輝度を調整することと
     を含む撮像システムの制御方法。
PCT/JP2016/079984 2015-10-27 2016-10-07 撮像システムのための制御装置、撮像システム、及び撮像システムの制御方法 WO2017073302A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017508593A JP6203452B1 (ja) 2015-10-27 2016-10-07 撮像システム
US15/953,967 US11051683B2 (en) 2015-10-27 2018-04-16 Control device for imaging system, imaging system, and method for controlling imaging system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015210942 2015-10-27
JP2015-210942 2015-10-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/953,967 Continuation US11051683B2 (en) 2015-10-27 2018-04-16 Control device for imaging system, imaging system, and method for controlling imaging system

Publications (1)

Publication Number Publication Date
WO2017073302A1 true WO2017073302A1 (ja) 2017-05-04

Family

ID=58631543

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/079984 WO2017073302A1 (ja) 2015-10-27 2016-10-07 撮像システムのための制御装置、撮像システム、及び撮像システムの制御方法

Country Status (3)

Country Link
US (1) US11051683B2 (ja)
JP (1) JP6203452B1 (ja)
WO (1) WO2017073302A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230066A1 (ja) * 2017-06-12 2018-12-20 ソニー株式会社 医療用システム、医療用装置および制御方法
WO2019093089A1 (ja) * 2017-11-13 2019-05-16 ソニー株式会社 情報処理装置、情報処理方法及び蛍光画像撮像システム
JP2021517847A (ja) * 2018-04-25 2021-07-29 上海凱利泰医療科技股▲ふん▼有限公司Shanghai Kinetic Medical Co., Ltd 画像処理システム、蛍光内視鏡照明撮像装置及び撮像方法
WO2023218897A1 (ja) * 2022-05-10 2023-11-16 Hoya株式会社 内視鏡用プロセッサおよび内視鏡用プロセッサの制御方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114052908B (zh) * 2021-12-01 2024-02-13 辽宁北镜医疗科技有限公司 一种基于照度调节的近红外荧光术中导航***及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007143624A (ja) * 2005-11-24 2007-06-14 Hamamatsu Photonics Kk 蛍光観察装置
JP2010005305A (ja) * 2008-06-30 2010-01-14 Fujifilm Corp 蛍光撮影方法及び装置
WO2015015839A1 (ja) * 2013-08-01 2015-02-05 オリンパスメディカルシステムズ株式会社 撮像装置
WO2015115151A1 (ja) * 2014-01-31 2015-08-06 オリンパス株式会社 蛍光観察装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007313171A (ja) 2006-05-29 2007-12-06 Olympus Corp 内視鏡システム
US8498695B2 (en) * 2006-12-22 2013-07-30 Novadaq Technologies Inc. Imaging system with a single color image sensor for simultaneous fluorescence and color video endoscopy

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007143624A (ja) * 2005-11-24 2007-06-14 Hamamatsu Photonics Kk 蛍光観察装置
JP2010005305A (ja) * 2008-06-30 2010-01-14 Fujifilm Corp 蛍光撮影方法及び装置
WO2015015839A1 (ja) * 2013-08-01 2015-02-05 オリンパスメディカルシステムズ株式会社 撮像装置
WO2015115151A1 (ja) * 2014-01-31 2015-08-06 オリンパス株式会社 蛍光観察装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230066A1 (ja) * 2017-06-12 2018-12-20 ソニー株式会社 医療用システム、医療用装置および制御方法
JPWO2018230066A1 (ja) * 2017-06-12 2020-04-16 ソニー株式会社 医療用システム、医療用装置および制御方法
JP7088185B2 (ja) 2017-06-12 2022-06-21 ソニーグループ株式会社 医療用システム、医療用装置および制御方法
US11463629B2 (en) 2017-06-12 2022-10-04 Sony Corporation Medical system, medical apparatus, and control method
WO2019093089A1 (ja) * 2017-11-13 2019-05-16 ソニー株式会社 情報処理装置、情報処理方法及び蛍光画像撮像システム
JPWO2019093089A1 (ja) * 2017-11-13 2020-11-12 ソニー株式会社 情報処理装置、情報処理方法及び蛍光画像撮像システム
US11272844B2 (en) 2017-11-13 2022-03-15 Sony Corporation Information processing device, information processing method, and fluorescence image capturing system
JP2021517847A (ja) * 2018-04-25 2021-07-29 上海凱利泰医療科技股▲ふん▼有限公司Shanghai Kinetic Medical Co., Ltd 画像処理システム、蛍光内視鏡照明撮像装置及び撮像方法
JP7140464B2 (ja) 2018-04-25 2022-09-21 上海凱利泰医療科技股▲ふん▼有限公司 画像処理システム、蛍光内視鏡照明撮像装置及び撮像方法
WO2023218897A1 (ja) * 2022-05-10 2023-11-16 Hoya株式会社 内視鏡用プロセッサおよび内視鏡用プロセッサの制御方法

Also Published As

Publication number Publication date
JPWO2017073302A1 (ja) 2017-10-26
JP6203452B1 (ja) 2017-09-27
US11051683B2 (en) 2021-07-06
US20180228352A1 (en) 2018-08-16

Similar Documents

Publication Publication Date Title
JP6203452B1 (ja) 撮像システム
CN107072520B (zh) 以可见光波长和红外波长并行成像的内窥镜***
JP5244455B2 (ja) 内視鏡プロセッサおよび内視鏡システム
US9675238B2 (en) Endoscopic device
JP5507376B2 (ja) 撮像装置
JP4761899B2 (ja) 電子内視鏡システム
US20200337540A1 (en) Endoscope system
US9532740B2 (en) Endoscope system, processing apparatus for the same, and image generating method
US20170035280A1 (en) Stereoscopic endoscope system with concurrent imaging at visible and infrared wavelengths
JP2009034224A (ja) 医療装置
JP6129462B1 (ja) 内視鏡システム
JP6169310B1 (ja) 内視鏡システム
US20200163538A1 (en) Image acquisition system, control apparatus, and image acquisition method
WO2017183324A1 (ja) 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
WO2016032729A1 (en) Endoscope system with concurrent imaging in visible and infrared wavelengths
JP6581952B2 (ja) 内視鏡システム及びその作動方法
JP6246436B1 (ja) 内視鏡用プロセッサ及び内視鏡用プロセッサの作動方法
JP4864325B2 (ja) 画像処理装置
WO2015115151A1 (ja) 蛍光観察装置
JP2006192058A (ja) 画像処理装置
JP5242516B2 (ja) 画像処理装置
JP5570352B2 (ja) 画像撮像装置
WO2016059906A1 (ja) 内視鏡装置
JP6580778B2 (ja) 内視鏡画像信号処理装置およびプログラム
JP2013094489A (ja) 内視鏡装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017508593

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16859539

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16859539

Country of ref document: EP

Kind code of ref document: A1