WO2016114231A1 - 内視鏡システムおよび処理装置 - Google Patents

内視鏡システムおよび処理装置 Download PDF

Info

Publication number
WO2016114231A1
WO2016114231A1 PCT/JP2016/050506 JP2016050506W WO2016114231A1 WO 2016114231 A1 WO2016114231 A1 WO 2016114231A1 JP 2016050506 W JP2016050506 W JP 2016050506W WO 2016114231 A1 WO2016114231 A1 WO 2016114231A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
illumination
period
image signal
image
Prior art date
Application number
PCT/JP2016/050506
Other languages
English (en)
French (fr)
Inventor
涼平 香川
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP16737302.6A priority Critical patent/EP3245935A1/en
Priority to JP2016534264A priority patent/JP6072372B2/ja
Priority to CN201680003573.7A priority patent/CN107072516B/zh
Publication of WO2016114231A1 publication Critical patent/WO2016114231A1/ja
Priority to US15/590,461 priority patent/US10575720B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00057Operational features of endoscopes provided with means for testing or calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS

Definitions

  • the present invention relates to an endoscope system including an endoscope and a processing device that processes an image signal output from the endoscope.
  • an endoscope system is used for observation inside a subject.
  • an endoscope inserts a flexible insertion portion having an elongated shape into a subject such as a patient, and illuminates illumination light supplied from a light source device from the distal end of the insertion portion. The reflected light is received by the imaging unit at the distal end of the insertion unit to capture an in-vivo image.
  • the in-vivo image picked up by the image pickup unit of the endoscope is subjected to predetermined image processing in the processing device of the endoscope system and then displayed on the display of the endoscope system.
  • a user such as a doctor observes the organ of the subject based on the in-vivo image displayed on the display.
  • CMOS Complementary Metal Oxide Semiconductor
  • blue light, green light, and red light are sequentially irradiated as illumination light to the subject to support these three colors of light.
  • a technique for sequentially generating imaging signals to be proposed has been proposed (see, for example, Patent Document 1).
  • the CMOS sensor generates image data by a rolling shutter method in which exposure or reading is performed at different timings for each horizontal line.
  • this CMOS sensor in order to ensure a sufficient exposure period for all pixels, it is necessary to increase the ratio of the period (V blank period) in which exposure can be performed in common for all horizontal lines. .
  • V blank period the period in which exposure can be performed in common for all horizontal lines.
  • the ratio of the V blank period is increased, the signal transmission period is reduced by that amount, and high-speed readout from the CMOS sensor is required. Therefore, high-speed transmission with an imaging cable is required, and transmission burden is increased. There was a problem that became larger.
  • the present invention has been made in view of the above, and an object of the present invention is to provide an endoscope system and a processing apparatus that can secure a sufficient exposure period for all pixels while suppressing the transmission burden of a cable. .
  • an endoscope system is a light source that sequentially emits illumination lights of different colors corresponding to a predetermined period as illumination light for illuminating a subject.
  • An endoscope apparatus having an imaging element in which a plurality of pixels that photoelectrically convert light from a subject irradiated with the illumination light and generate and output an image signal are arranged in a matrix; and the imaging element Among the image signals output from the image signal, a color for calculating each color component signal for each line of the pixel array in the image sensor using output values of the image signals of a plurality of consecutive frames corresponding to the number of colors of the illumination light And a processing device having a component calculation unit.
  • the color component calculation unit calculates a value from among the latest frame in which an image signal is output from the image sensor and the output value of the image signal of the previous frame.
  • a color component signal of a line to be calculated is calculated using an output value of the same line as the target line.
  • the processing device controls the light source device to illuminate the illumination light for each line exposure period for a period of one line exposure period or less. It is provided with.
  • the illumination control unit causes the light source device to illuminate the illumination light of each color so that the illumination light of each color satisfies a certain condition
  • the color component calculation unit includes: Relational expression using each illumination period per one-line exposure period of each color in each frame used for calculation and each exposure period of each color on the calculation target line in each frame used for calculation And calculating each color component signal for each line.
  • the light source device illuminates three colors of illumination light
  • the color component calculation unit includes a latest frame in which an image signal is output from the imaging device, and the frame.
  • the output value of the same line as the calculation target line is applied to the relational expression so that each color component signal in the calculation target line Is calculated.
  • the illumination control unit sequentially performs illumination processing for causing the light source device to illuminate illumination light of one of the three colors during one one-line exposure period. It is made to perform.
  • the illumination control unit causes the light source device to illuminate illumination light of two of the three colors during one one-line exposure period. To do.
  • the endoscope system is characterized in that the illumination control unit causes the light source device to illuminate in a state where illumination periods of the two colors of illumination light overlap at least partially.
  • the illumination control unit causes the light source device to illuminate all the illumination lights of the three colors in different illumination periods in one one-line exposure period.
  • the illumination control unit includes the illumination of the three colors so as to include a period in which all of the illumination lights of the three colors are illuminated with respect to the light source device. It is characterized by illuminating light.
  • the processing device detects the brightness of an image from an image signal output from the image sensor, and irradiates from the light source device based on the detected brightness of the image.
  • a dimming unit for obtaining an illumination period of illumination light of each color to be stored, and a storage unit for storing illumination period information indicating a plurality of combinations of illumination periods of illumination light of each color for which a solution of the relational expression is uniquely determined
  • the illumination control unit includes the illumination light of each color obtained by the dimming unit among the combinations of illumination periods of the illumination lights of the respective colors indicated by the illumination period information stored in the storage unit with respect to the light source device. The illumination light of each color is illuminated in the combination illumination period closest to the illumination period.
  • the endoscope system according to the present invention is characterized in that the three colors of illumination light are red light, green light, and blue light.
  • the endoscope system according to the present invention is characterized in that the image sensor is a CMOS image sensor.
  • the illumination control unit causes the light source device to turn off the illumination light at the same timing as the end timing of the exposure period for the pixels on the first line in the image sensor. It is characterized by that.
  • the endoscope system according to the present invention is characterized in that the image pickup device is a CCD image pickup device.
  • the processing device controls a light source device that emits illumination light for illuminating the subject, and generates and outputs an image signal by photoelectrically converting light from the subject irradiated with the illumination light.
  • a color component calculation unit that calculates each color component signal for each line of the pixel array in the image sensor using values.
  • the image of each color component of the acquisition target frame using the output values of the image signals of a plurality of consecutive frames corresponding to the number of colors of illumination light. Since signals are obtained by calculation processing for each line, all pixels can be exposed in a sufficient period without providing a V blank period, and a sufficient exposure period for all pixels while suppressing the transmission burden of the cable. Can be secured.
  • FIG. 1 is a schematic diagram illustrating a schematic configuration of the endoscope system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram schematically showing the configuration of the endoscope system shown in FIG.
  • FIG. 3 is a flowchart showing a processing procedure of processing until an RGB image signal for one frame is generated in the processing apparatus shown in FIG.
  • FIG. 4 is a timing chart showing exposure and readout timings in the image sensor shown in FIG.
  • FIG. 5 is a diagram for explaining the uniqueness of the image signal solution obtained in the first embodiment.
  • FIG. 6 is a timing chart showing the exposure and readout timings in the case of the NBI observation method in the image sensor in the first modification of the first embodiment.
  • FIG. 7 is a timing chart showing another example of exposure and readout timings in the case of the NBI observation method in the image sensor in the first modification of the first embodiment.
  • FIG. 8 is a timing chart showing exposure and readout timing when the image sensor in the first embodiment is a CCD image sensor.
  • FIG. 9 is a block diagram schematically illustrating the configuration of the endoscope system according to the second embodiment.
  • FIG. 10 is a flowchart showing a processing procedure of processing until an RGB image signal for one frame is generated in the processing apparatus shown in FIG.
  • FIG. 11 is a timing chart showing exposure and readout timings in the image sensor shown in FIG.
  • FIG. 12 is a diagram for explaining the uniqueness of the image signal solution obtained in the second embodiment.
  • FIG. 10 is a flowchart showing a processing procedure of processing until an RGB image signal for one frame is generated in the processing apparatus shown in FIG.
  • FIG. 11 is a timing chart showing exposure and readout timings in the image sensor shown in FIG.
  • FIG. 12 is
  • FIG. 13 is a diagram for explaining the uniqueness of the image signal solution obtained in the second embodiment.
  • FIG. 14 is a timing chart showing exposure and readout timings when the image sensor in the second embodiment is a CCD image sensor.
  • FIG. 15 is a block diagram schematically illustrating the configuration of the endoscope system according to the third embodiment.
  • FIG. 16 is a flowchart showing a processing procedure of processing until an RGB image signal for one frame is generated in the processing apparatus shown in FIG.
  • FIG. 17 is a timing chart showing exposure and readout timings in the image sensor shown in FIG.
  • FIG. 18 is a diagram illustrating the uniqueness of the solution of the image signal obtained in the third embodiment.
  • FIG. 19 is a diagram for explaining the uniqueness of the image signal solution obtained in the third embodiment.
  • FIG. 20 is a timing chart showing exposure and readout timing when the image sensor in the third embodiment is a CCD image sensor.
  • an endoscope system will be described as a mode for carrying out the present invention (hereinafter referred to as “embodiment”). Moreover, this invention is not limited by this embodiment. Furthermore, the same code
  • FIG. 1 is a schematic diagram illustrating a schematic configuration of the endoscope system according to the first embodiment of the present invention.
  • an endoscope system 1 according to the first embodiment is introduced into a subject, and an endoscope 2 (images in the subject are generated by imaging the inside of the subject) ( A scope) and a processing device 3 (signal) for performing predetermined image processing on an image signal transmitted from the endoscope 2 with the endoscope 2 being detachably attached and controlling each part of the endoscope system 1 A processing device), a light source device 4 that generates illumination light (observation light) of the endoscope 2, and a display device 5 that displays an image corresponding to an image signal subjected to image processing by the processing device 3.
  • the endoscope 2 includes an insertion part 21 to be inserted into a subject, an operation part 22 on the proximal end side of the insertion part 21 and held by an operator, and a flexible universal extending from the operation part 22.
  • a code 23 is
  • the insertion part 21 is realized using an illumination fiber (light guide cable) and an electric cable.
  • the insertion unit 21 includes a distal end portion 21a having an imaging unit incorporating a CMOS imaging device as an imaging device for imaging the inside of the subject, a bendable bending portion 21b configured by a plurality of bending pieces, and a base of the bending portion 21b. And a flexible tube portion 21c having flexibility provided on the end side.
  • the distal end portion 21a includes an illumination unit that illuminates the inside of the subject via an illumination lens, an observation unit that images the inside of the subject, an opening 21d that communicates with the processing tool channel, and an air / water supply nozzle (not shown). ) Is provided.
  • the operation unit 22 includes a bending knob 22a that bends the bending portion 21b in the vertical direction and the left-right direction, a treatment tool insertion portion 22b in which a treatment tool such as a biological forceps and a laser knife is inserted into the body cavity of the subject, and the processing device 3. And a plurality of switch portions 22c for operating peripheral devices such as the light source device 4, the air supply device, the water supply device, and the gas supply device.
  • the treatment instrument inserted from the treatment instrument insertion portion 22b is exposed from the opening 21d at the distal end of the insertion portion 21 via a treatment instrument channel provided inside.
  • the universal cord 23 is configured using an illumination fiber and an electric cable.
  • the universal cord 23 includes connectors 23 a and 23 b that are detachable from the processing device 3 and the light source device 4 branched at the proximal end.
  • the universal code 23 transmits an image signal captured by the imaging unit provided at the distal end portion 21a to the processing device 3 via the connector 23a.
  • the universal cord 23 propagates the illumination light emitted from the light source device 4 to the distal end portion 21a via the connector 23b, the operation unit 22, and the flexible tube portion 21c.
  • the processing device 3 performs predetermined image processing on the imaging signal in the subject imaged by the imaging unit at the distal end portion 21a of the endoscope 2 input via the universal code 23.
  • the processing device 3 controls each unit of the endoscope system 1 based on various instruction signals transmitted from the switch unit 22 c in the operation unit 22 of the endoscope 2 via the universal cord 23.
  • the light source device 4 is configured using a light source, a condensing lens, and the like that emit light in a plurality of wavelength bands (colors).
  • the light source device 4 serves as illumination light for illuminating the light emitted from the light source toward the subject, which is the subject, to the endoscope 2 connected via the illumination fiber of the connector 23b and the universal cord 23. Supply.
  • the light source emits red (R) light, green (G) light, and blue (B) light, for example.
  • the display device 5 is configured by using a display using liquid crystal or organic EL (Electro Luminescence).
  • the display device 5 displays various types of information including an image corresponding to a display image signal that has been subjected to predetermined image processing by the processing device 3 via a video cable. Thereby, the surgeon can observe and characterize a desired position in the subject by operating the endoscope 2 while viewing the image (in-vivo image) displayed on the display device 5.
  • FIG. 2 is a block diagram schematically showing the configuration of the endoscope system 1 shown in FIG.
  • the endoscope 2 has an optical system 24 and an image sensor 25 at the distal end portion 21a.
  • the distal end portion of the light guide cable 23c extending from the light source device 4 via the connector 23b is positioned at the distal end portion 21a.
  • An illumination lens 21e is provided at the tip of the light guide cable 23c. The light emitted from the light source device 4 is illuminated onto the subject from the illumination window 21f of the distal end portion 21a of the insertion portion 21 via the light guide cable 23c.
  • the optical system 24 is configured by using one or a plurality of lenses provided in front of the image sensor 25, and has an optical zoom function for changing the angle of view and a focus function for changing the focus.
  • the imaging element 25 includes a light receiving unit 26 and a reading unit 27.
  • the image sensor 25 is a CMOS image sensor that can perform exposure and readout for each horizontal line.
  • the light receiving unit 26 has a plurality of pixels arranged in a matrix on the light receiving surface. Each pixel receives light from a subject irradiated with light, and photoelectrically converts the received light to generate a pixel signal (image signal).
  • An optical system 24 is arranged on the light receiving surface side of the light receiving unit 26.
  • Read unit 27 reads image signals generated by a plurality of pixels of light receiving unit 26.
  • the readout unit 27 executes an imaging operation for performing exposure and readout from the top horizontal line, and generates an image signal by a rolling shutter system that performs charge reset, exposure, and readout by shifting the timing for each horizontal line. Therefore, in the image sensor 25, the exposure timing and the readout timing are different for each horizontal line even in one imaging period (frame). In other words, the period during which a pixel group of one horizontal line is exposed (one line exposure period) has the same time width in any horizontal line, but the start point and the end point of each horizontal line are shifted.
  • the image signal read by the reading unit 27 is an electrical signal (analog).
  • the image sensor 25 is an AFE unit (not shown) that performs noise removal, A / D conversion, and the like on the electrical signal of the image signal read by the read unit 27, and the image sensor 25 according to a control signal received from the processing device 3. And a control unit (not shown) for controlling the operation.
  • the image signal (digital) generated by the image sensor 25 is output to the processing device 3 via a signal cable (not shown) and the connector 23a.
  • the processing apparatus 3 includes an image processing unit 31, a display control unit 32, a light control unit 33, a control unit 34, an input unit 35, and a storage unit 36.
  • the image processing unit 31 performs predetermined image processing on the image signal read by the reading unit 27 of the image sensor 25.
  • the image processing unit 31 includes a color component calculation unit 31a, a rewritable memory 31b that can temporarily hold an image signal read from the image sensor 25 in units of frames, a gain adjustment unit 31c, and a white balance (WB).
  • An adjustment unit 31d and a synchronization unit 31e are included.
  • the image processing unit 31 may perform optical black subtraction processing and edge enhancement processing.
  • the color component calculation unit 31a uses output values of image signals of a plurality of consecutive frames corresponding to the number of wavelength bands (colors) of illumination light among the image signals output from the imaging device 25 of the endoscope 2. Each color component signal is calculated for each horizontal line.
  • the color component calculation unit 31a uses the output value of the same line as the line to be calculated, among the latest frame in which the image signal is output from the image sensor 25 and the output value of the image signal of the previous frame. Thus, the color component signal of the line to be calculated is calculated.
  • the color component calculation unit 31a exposes each illumination period per one-line exposure period of each color in each frame used for calculation, and each exposure of each color on a horizontal line to be calculated in each frame used for calculation.
  • Each color component signal is calculated for each horizontal line using a relational expression using the period.
  • the color component calculation unit 31a receives only R light from a subject irradiated with R light in three consecutive frames.
  • a B image signal at the time of receiving light is generated for each horizontal line.
  • the gain adjustment unit 31c is based on the gain adjustment value calculated by the dimming unit 33 described later, and the illumination periods of the three colors of R, G, and B light set by the illumination control unit 34a described later. In addition, the gain of the R, G, B image signals that are the color component signals of the respective colors output from the color component calculation unit 31a is adjusted.
  • the WB adjustment unit 31d adjusts the white balance of the R, G, and B image signals that are color components output from the color component calculation unit 31a.
  • the synchronization unit 31e inputs each input R, G, B image signal to a memory (not shown) provided for each pixel, and corresponds to the pixel address of the light receiving unit 26 read by the reading unit 27.
  • the values of the memories are held while being sequentially updated with the input image signals, and the image signals of the three memories are synchronized as RGB image signals.
  • the display control unit 32 converts the gradation of the RGB image signal output from the image processing unit 31 so as to correspond to the display device 5, and generates a display image signal changed to a format corresponding to the display device 5. Output to the display device 5. As a result, one in-vivo image is displayed on the display device 5.
  • the dimming unit 33 detects a brightness level corresponding to each pixel from the image signal input to the image processing unit 31, and calculates a gain adjustment value for the image signal based on the detected brightness level. . Based on the detected brightness level, the light control unit 33 calculates the light irradiation amount of the illumination light to be emitted next as the light control condition. The dimming unit 33 outputs the calculated gain adjustment value to the gain adjusting unit 31c, and outputs the dimming condition to the control unit 34 together with the detected brightness level.
  • the control unit 34 is realized using a CPU or the like.
  • the control unit 34 controls the processing operation of each unit of the processing device 3.
  • the control unit 34 controls the operation of the processing device 3 by transferring instruction information and data to each component of the processing device 3.
  • the control unit 34 is connected to the image sensor 25 and the light source device 4 via each cable, and also controls the image sensor 25 and the light source device 4.
  • the control unit 34 includes an illumination control unit 34a.
  • the illumination control unit 34a sets the illumination period and illumination intensity of each color of the light source device 4 based on the dimming condition output from the dimming unit 33. In Embodiment 1, the illumination control unit 34a sets the illumination period with the illumination intensity of illumination light constant.
  • the illumination control unit 34 a sets driving conditions such as the amount of current supplied to each light source and the current supply period, and outputs a light source synchronization signal including the setting conditions to the light source device 4.
  • the illumination control unit 34a sets the type of light emitted from the light source device 4, the amount of light, and the illumination timing.
  • the illumination control unit 34a controls the light source device 4 to illuminate illumination light for a period of one line exposure period or less for each exposure period (one line exposure period) in the leading horizontal line 1.
  • the illumination control unit 34a sets the irradiation time and the irradiation intensity on the condition that the output value of the image sensor 25 is not saturated.
  • the illumination control unit 34a may set the irradiation time and irradiation intensity before the output value of the image sensor 25 is saturated, and the gain adjustment unit 31c may adjust the gain of the image signal with a minus gain.
  • the input unit 35 is realized using an operation device such as a mouse, a keyboard, and a touch panel, and receives input of various instruction information of the endoscope system 1. Specifically, the input unit 35 inputs subject information (for example, ID, date of birth, name, etc.), identification information (for example, ID or examination corresponding item) of the endoscope 2, and various instruction information such as examination contents. Accept.
  • subject information for example, ID, date of birth, name, etc.
  • identification information for example, ID or examination corresponding item
  • various instruction information such as examination contents. Accept.
  • the storage unit 36 is realized using a volatile memory or a non-volatile memory, and stores various programs for operating the processing device 3 and the light source device 4.
  • the storage unit 36 temporarily records information being processed by the processing device 3.
  • the storage unit 36 stores the image signal read by the reading unit 27.
  • the storage unit 36 stores the image signal processed by the image processing unit 31.
  • the light source device 4 includes a light source control unit 41 and an illumination unit 42 including a light source driver 43 and a light source 44.
  • the light source control unit 41 controls the illumination process of the illumination light of the light source 44 under the control of the illumination control unit 34a.
  • the light source driver 43 of the illumination unit 42 supplies predetermined power to the light source 44 under the control of the light source control unit 41.
  • the light source 44 of the illumination unit 42 emits light of a plurality of wavelength bands (colors) as illumination light supplied to the endoscope 2.
  • the light source 44 includes, for example, a light source such as a red LED, a green LED, and a blue LED and an optical system such as a condenser lens, and has R, G, and B wavelength bands (for example, R: 600 nm to 700 nm, G : 500 nm to 600 nm, B: 400 nm to 500 nm).
  • the light emitted from the light source 44 is illuminated by the light guide cable 23c through the connector 23b and the universal cord 23 and from the illumination window 21f to the subject via the illumination lens 21e at the distal end portion 21a of the insertion portion 21.
  • An imaging element 25 is arranged in the vicinity of the illumination window 21f.
  • the light source 44 may be a combination of a white light LED and a rotary filter having a red filter, a green filter, and a blue filter that transmit light having respective wavelength bands of R light, G light, and B light.
  • FIG. 3 is a flowchart showing a processing procedure until the processing device 3 generates an RGB image signal for one frame.
  • a dimming condition input process is performed in which the dimming condition of illumination light to be irradiated next is input from the dimming section 33 to the illumination control section 34a of the control section 34 (step S1). .
  • the illumination control unit 34a sets an illumination condition of illumination light to be irradiated next in accordance with the input dimming condition, and performs an illumination control process for causing the light source device 4 to illuminate illumination light with the set illumination condition (step S2). ).
  • the illumination control unit 34a sets the color and the illumination period of the illumination light to be irradiated next after making the illumination intensity constant for any color of illumination light.
  • the control unit 34 performs image signal read processing for sequentially executing image signal read processing for performing exposure and reading of the image signal from the top horizontal line on the image sensor 25 of the endoscope 2 (step S3). ).
  • a color component calculation unit 31a of the image processing unit 31 calculates each color component signal for each horizontal line using output values of image signals of a plurality of continuous frames including the image signal output from the image sensor 25.
  • An arithmetic process is performed (step S4).
  • the color component calculation unit 31a calculates each color component signal for all horizontal lines and outputs each color component signal in units of frames.
  • the image processing unit 31 performs gain adjustment processing, white balance adjustment processing, and synchronization processing on each color component signal output from the color component calculation unit 31a to generate image signal processing for one frame of RGB image signals.
  • Step S5 Note that the image processing unit 31 may perform image signal processing such as optical black subtraction processing and edge enhancement processing in step S5.
  • FIG. 4 is a timing chart showing exposure and readout timings in the image sensor 25 shown in FIG.
  • the exposure and readout timing of the image sensor 25 (image signal read from the image sensor 25 corresponding to (1) in FIG. 4 ((2) in FIG. 4)) is generated based on the image signal.
  • R, G, B image signals ((3) to (5) in Fig. 4) are also shown.
  • (3) to (5) in Fig. 4 are for generating image signals of respective color components.
  • the generation timing of the image signal of each color component is shown in a state moved from the actual timing.
  • the illumination control unit 34a Based on the dimming conditions input in step S1, the illumination control unit 34a emits one color of R light, G light, and B light to the light source device 4 within one line exposure period.
  • An illumination control process for sequentially executing an illumination process for illuminating in a period equal to or shorter than the period is performed (step S2).
  • the illumination controller 34a turns off the light of any color at the same timing as the end timing of the one-line exposure period of each frame in the image sensor 25.
  • the illumination control unit 34a adjusts the illumination start time within each one-line exposure period according to the dimming condition. In the example of FIG. 4, the illumination control unit 34a causes the light source device 4 to sequentially illuminate in the order of G light, B light, and R light for each line exposure period. Turn off the lights at the end time.
  • the period L g1 is the G light illumination period
  • the one-line exposure period (time T 1 to T 2 ) of frame 2 is the B light illumination period
  • the period L r3 is the R light illumination period and the one-line exposure period (time T 3) of the frame 4 ⁇ T 4 )
  • the period L g4 is the G light illumination period
  • the one-line exposure period (time T 4 to T 5 ) of the frame 5 is the B light illumination period.
  • the light source device 4 turns off each light at the end time T 1 , T 2 , T 3 , T 4 , T 5 of the one-line exposure period of each frame.
  • step S3 the image signal reading process (step S3) in FIG. 3 will be described.
  • CMOS image sensor that employs a rolling shutter system that changes the exposure and readout timing for each horizontal line is employed as the image sensor 25, and the timing is shifted in the time direction for each horizontal line. While performing exposure and readout.
  • the pixel signal is read at time T 1 after the first horizontal line 1 is exposed from time T 0 to T 1 . Subsequent horizontal line pixels are exposed and read out while shifting the timing in the time direction for each horizontal line. Therefore, in the frame 1, the pixel signal of each horizontal line is read in order from the head during the time T 1 to T 2 , thereby outputting the image signal F 1 of the frame 1 (see (2) in FIG. 4). . In frame 2, the image signal F2 of frame 2 is output by sequentially reading out the pixel signals of each horizontal line during times T 2 to T 3 .
  • the frame 3 is output image signal F 3 of the frame 3 by the reading process between the time T 3 ⁇ T 4
  • the frame 4 by the reading process between the time T 4 ⁇ T 5 images signal F 4 is outputted
  • the frame 5 the image signal F 5 of the frame 5 is output by the reading process between the time T 5 ⁇ T 6.
  • the output values of the image signals F 1 to F 5 of each frame are the color of light illuminated by the horizontal line, The number of illuminations and the illumination period are different, and the values correspond to exposure of light of a plurality of colors.
  • the R, G, and B lights are controlled to be sequentially illuminated one color at each line exposure period of each frame, the exposure period of each R, B, and G light is set to three consecutive frames. Distributed across. Therefore, in the color component calculation process (step S4) in FIG. 3, the color component calculation unit 31a performs the illumination period of each color per line exposure period in each frame of three consecutive frames for each horizontal line, and each frame.
  • the color components to be acquired from the image signals for three consecutive frames including the latest frame from which the image signal is output from the image sensor 25 are obtained.
  • the signal of the color component to be acquired is obtained by extracting the signal. It is assumed that the subject is not operating. Further, the image signals of a plurality of frames used in the calculation by the color component calculation unit 31a are temporarily held in the memory 31b.
  • the value of n the illumination period of each color in each one-line exposure period of successive frames (k-3) to (k-1), and each color to the horizontal line n in frames (k-3) to (k-1)
  • the relationship between the matrix A k based on the exposure period and the R image signal F kn (R) , G image signal F kn (G) , and B image signal F kn (B) of the horizontal line n of the frame k in operation A ternary linear simultaneous equation (equation (1)) is established.
  • the equation (1) is used.
  • the inverse matrix A k ⁇ 1 of the modified equation (2) is obtained and the equation (2) is solved. That is, the color component calculation unit 31a calculates a target of calculation among the latest frame in which the image signal is output from the image sensor 25, and the output values of the image signal in the previous frame and the previous two frames. By applying the output value of the same line to the equation (2), each color component signal in the calculation target line is calculated.
  • the frame 1 to 3 is obtained by inputting the output value of the horizontal line n in the image signals F 1n , F 2n , and F 3n (see arrow Y1).
  • the B and R light illumination periods L b2 and L r3 in each one-line exposure period of the continuous frames 2 and 3 and the G light exposure period g to the horizontal line n in the frames 1 to 3 are shown.
  • 1 , g 3 , B light exposure periods b 1 , b 2, and R color exposure periods r 2 , r 3 are parameters of the matrix A 4 .
  • the color component calculation unit 31a sets the R color exposure periods r 2 and r 3 corresponding to the horizontal line n, the G light exposure periods g 1 and g 3 , and the B light exposure periods b 1 and b 2 in the matrix A 4 .
  • An arithmetic process is performed to solve the equation (3), which is applied as a parameter and inputted with the output value of the horizontal line n of the image signals F 3n , F 2n , and F 1n .
  • the color component calculation unit 31a performs the R image signal F 4n (R) , the period (g ) corresponding to the image signal when exposed to the R light in the illumination period L r3 corresponding to the horizontal line n of the fourth frame.
  • G image signal F 4n (G) corresponding to the image signal when exposed to 1 + g 3 ) with G light
  • B image signal F 4n corresponding to the image signal when exposed to B light during the illumination period L b2 (B)
  • Color component calculating unit 31a using the parameters corresponding to each horizontal line as a parameter of the matrix A 4, the image signal F 3n horizontal line n operands, F 2n, and inputs the output value of F 1n (3) formula Are sequentially performed from the first horizontal line 1 to the last horizontal line N.
  • the R image signal F 4 (R) , the G image signal F 4 (G) , and the B image signal F 4 (B) of the fourth frame can be acquired in units of frames.
  • the row vector (r 3 / L r3 , g 3 / (g 1 + g 3 ), 0) composed of the components of the first row of the matrix A 4 in the equation (3) is represented by Ra and the rows composed of the components of the second row.
  • the vector (r 2 / L r3 , 0, b 2 / L b2 ) is Rb
  • the row vector (0, g 1 / (g 1 + g 3 ), b 1 / L b2 ) consisting of the components in the third row is called Rc. .
  • the R image signal F 5n (R) , the G image signal F 5n (G) , and the B image signal F 5n (B) of the horizontal line n of the fifth frame the following expressions (4)
  • the output value of the horizontal line n in the image signals F 2n , F 3n , and F 4n is input and obtained (see arrow Y2).
  • the R and G light illumination periods L r3 and L g4 in the one-line exposure period of each of the successive frames 3 and 4 and the R-color exposure period r to the horizontal line n in the frames 2 to 4 2 , r 3 , G light exposure periods g 3 and g 4 , and B light exposure periods b 2 and b 4 are parameters of the matrix A 5 .
  • the color component calculation unit 31a sets R exposure periods r 2 and r 3 corresponding to the horizontal line n, G light exposure periods g 3 and g 4 , and B light exposure periods b 2 and b 4 in the matrix A 5 . Applying as a parameter, an arithmetic process is performed to solve equation (4) in which the output value of the horizontal line n of the image signals F 4n , F 3n , and F 2n is input. As a result, the color component calculation unit 31a outputs the R image signal F 5n (R) corresponding to the image signal and the illumination period L when exposed to R light in the illumination period L r3 corresponding to the horizontal line n of the fifth frame.
  • G image signal F 5n (G) corresponding to the image signal when g4 is exposed with G light
  • B image signal F 5n corresponding to the image signal when exposed with B light during the period (b 2 + b 4 ) (B)
  • Color component calculating unit 31a using the parameters corresponding to each horizontal line as a parameter of the matrix A 5, the image signal F 4n horizontal line operands, F 3n, and inputs the output values of the F 2n to (4)
  • the calculation processing to be solved is sequentially performed from the first horizontal line 1 to the last horizontal line N.
  • the R image signal F 5 (R) , the G image signal F 5 (G) , and the B image signal F 5 (B) of the fifth frame can be acquired in units of frames.
  • the G and B light illumination periods L g4 and L b5 in the one-line exposure period of each of the consecutive frames 4 and 5 , and the R-color exposure period r to the horizontal line n in the frames 3 to 5 3 , r 5 , G light exposure periods g 3 and g 4 , and B light exposure periods b 4 and b 5 are parameters of the matrix A 6 .
  • the color component calculation unit 31a calculates the R light exposure periods r 3 and r 5 , the G light exposure periods g 3 and g 4 , and the B light exposure periods b 4 and b 5 corresponding to the horizontal line n in the matrix A 6 . Applying as a parameter, an arithmetic process is performed to solve equation (5) in which the output value of the horizontal line n of the image signals F 5n , F 4n , and F 3n is input. As a result, the color component calculation unit 31a causes the R image signal F 6n (R) corresponding to the image signal when exposed to the R light in the illumination period (r 3 + r 5 ) corresponding to the horizontal line n of the sixth frame.
  • the G image signal F 6n (G) corresponding to the image signal when exposed to the G light during the illumination period L g4, and the B image signal F corresponding to the image signal when exposed to the B light during the illumination period L b5 6n (B) can be generated.
  • Color component calculating unit 31a using the parameters corresponding to each horizontal line as a parameter of the matrix A 6, the image signal F 5n horizontal line operands, F 4n, and inputs the output value of F 3n expression (5)
  • the calculation processing to be solved is sequentially performed from the first horizontal line 1 to the last horizontal line N.
  • the R image signal F 6 (R) , the G image signal F 6 (G) , and the B image signal F 6 (B) of the sixth frame can be acquired in units of frames.
  • the image signals of the respective color components of the respective horizontal lines n may be calculated by sequentially using the equations (3) to (5) in units of three frames.
  • FIG. 5 is a diagram for explaining the uniqueness of the solution of the image signal obtained in the first embodiment, and shows a case where the row vectors Ra, Rb, Rc of the equation (3) are viewed in the R, G, B space.
  • the row vector Ra is a vector on the RG plane and draws a trajectory P Ra that advances from the position R a1 corresponding to the horizontal line 1 toward the position R c1 as the line number advances.
  • the row vector Rb is a vector on the BR plane, and draws a locus PRb that advances from the position Rb1 corresponding to the horizontal line 1 toward the position Ra1 as the line number advances.
  • Row vector Rc is a vector on the G-B plane, from the position R c1 corresponding to the horizontal line 1, a locus P Rc proceeding toward the position R b1 accordance line number proceeds.
  • These row vectors Ra, Rb, and Rc draw different trajectories P Ra , P Rb , and P Rc on the RG plane, the BR plane, and the GB plane, as shown in FIG. Therefore, for any row vector Ra to Rc, the two row vectors do not overlap on the R, G, and B axes at the same time.
  • each R image signal F 4n (R) , G image signal F The values of 4n (G) and B image signal F 4n (B) can be obtained by calculation. Since the equations (4) and (5) are the same, the color component signal of any frame can be uniquely obtained.
  • step S4 all of the R, G, and B image signals are calculated as color component signals in one frame.
  • step S5 these R, G, and B images are calculated.
  • Predetermined image signal processing is performed on the signal.
  • the synchronization unit 31e is exposed in the exposure period closest to the readout period of the last frame of the three consecutive frames used in the calculation among the R, G, and B image signals.
  • Adopt color image signal is performed. Then, the synchronization process is performed in units of three frames based on the image signal adopted for each color in each frame.
  • the R image signal F 4 (R) corresponding to the exposure period L r3 closest to the readout period T 3 to T 4 in the frame 3 is adopted, and in the fifth frame, the readout period T in the frame 4 is adopted.
  • the G image signal F 5 (G) corresponding to the exposure period L g4 closest to 4 to T 5 is adopted, and the sixth frame corresponds to the exposure period L b5 closest to the readout period T 5 to T 6 in frame 5
  • the B image signal F 6 (B) is used, and the R image signal F 4 (R) , the G image signal F 5 (G) , and the B image signal F 6 (B) are used to perform synchronization processing.
  • the synchronization unit 31e may perform synchronization processing using the R, G, B image signals of the same frame and generate an RGB image signal for each frame.
  • the color component calculation unit 31a in the processing device 3 horizontally converts the image signal of each color component of the acquisition target frame by the calculation using the output values of the image signals of a plurality of consecutive frames. Extracted for each line. Therefore, according to the first embodiment, since the exposure period of each illumination light can be freely set in one line exposure period, a sufficient exposure period can be secured for all pixels, and the imaging element 25 Sensitivity can be maintained. In the first embodiment, since the color component calculation unit 31a extracts the image signal of each color component of the acquisition target frame by the calculation process, a period of exposure (V blank) is commonly used for all horizontal lines. The period for signal transmission can be sufficiently secured. Therefore, according to the first embodiment, it is possible to secure a sufficient exposure period for all the pixels while suppressing the transmission burden of the cable.
  • the first embodiment is not limited to the surface sequential method that sequentially switches the illumination light of three colors R, G, and B. For example, blue light and green light that have been narrowed so as to be easily absorbed by hemoglobin in blood.
  • the present invention is also applicable to an NBI observation method in which observation is performed using two types of NBI (Narrow Band Imaging) illumination light.
  • the light source device 4 sequentially switches and emits the narrow-band blue light (V light) and the narrow-band G light under the control of the illumination control unit 34a.
  • the wavelength band of the V light is, for example, a wavelength of 390 to 470 nm.
  • FIG. 6 is a timing chart showing exposure and readout timings in the image sensor 25 in the case of the NBI observation method.
  • an image signal ((2) in FIG. 6) read from the image sensor 25 corresponding to the exposure and readout timing ((1) in FIG. 6) of the image sensor 25 is generated based on the image signal.
  • V and G image signals ((3) to (5) in FIG. 6) are shown in FIGS. 6 (3) to (5).
  • the generation timing of the image signal of each color component is set to the actual timing in order to facilitate description of the image signal used for generating the image signal of each color component. It is shown in a state moved from.
  • the processing device 3 generates a V image signal and a G image signal for one frame by performing substantially the same processing as each processing shown in FIG.
  • the illumination control unit 34a performs an illumination control process based on the dimming condition input in the dimming condition input process (step S1 in FIG. 3) (step S2).
  • the illumination control unit 34 a causes the light source device 4 to irradiate the V light during the one-line exposure period of the frame 1 and the G light during the one-line exposure period of the frame 2.
  • the illumination control unit 34a repeats the illumination control in units of three frames with V light irradiation (frame 4), G light irradiation (frame 5), and no light emission (frame 6).
  • the color component calculation unit 31a performs the calculation corresponding to the image signal of three consecutive frames read out in the image signal reading process (step S3) and any one of the above-described equations (3) to (5).
  • a V image signal and a G image signal are generated for each horizontal line (step S4).
  • the color component calculation unit 31 a when generating the V image signal F 4v (V) and the G image signal F 4v (G) of the fourth frame, the color component calculation unit 31 a generates three consecutive frame image signals for each horizontal line n.
  • the output value of the horizontal line n of F 1 to F 3 (see (2) in FIG. 6) is input to the equation (3).
  • the V and B light illumination periods L v1 and L g2 in each one-line exposure period of the continuous frames 1 to 3 and the V light to the horizontal line n in the frames 1 to 3 are expressed by the following equation (3): It becomes a parameter of the matrix Ak .
  • the color component calculation unit 31a solves the equation ( 3 ), and V corresponding to the image signal when exposed with V light in the period (v 1 + v 3 ) corresponding to the horizontal line n of the fourth frame.
  • Image signal F 4vn (V) ((3) in FIG. 6)
  • G image signal F 4vn (G) corresponding to the image signal when exposed to G light in the illumination period L g2 ((4) in FIG. 6) Is generated.
  • an unilluminated image signal F 4vn (O) corresponding to the apparent illumination period L O3 is also generated ((5) in FIG. 6).
  • Color component calculating unit 31a using the parameters corresponding to each horizontal line as a parameter of the matrix A k, the image signal F 3n horizontal line operands, F 2n, and inputs the output value of F 1n the formula (3)
  • the calculation processing to be solved is sequentially performed from the first horizontal line 1 to the last horizontal line N.
  • the V image signal F 4V (V) , the G image signal F 4V (G) , and the non-illuminated image signal F 4v (O) of the fourth frame can be acquired in units of frames.
  • the image processing unit 31 performs image signal processing including gain adjustment processing and the like on each of the V image signal F 4v (V) and G image signal F 4v (G) calculated by the color component calculation unit 31a (step S5). ) To generate an NBI image signal.
  • this non-light frame since it is not necessary to perform dimming, it is possible to irradiate V light and G light with the longest irradiation time at all times without dimming, thereby reducing calculation errors, It is thought that the influence of afterimages can be reduced.
  • FIG. 7 is a timing chart showing other exposure and readout timings in the image sensor 25 in the case of the NBI observation method.
  • the illumination control unit 34a may cause the light source device 4 to irradiate the second V light (VV light) on the frames 3 and 6 which are non-light frames in FIG. 6 as shown in (1) of FIG. Good.
  • VV light the second V light
  • the illumination periods L v1 , L g2 , L vv3 of the V, G, and VV light in the respective one-line exposure periods of the continuous frames 1 to 3 and the frames 1 to 3 are used.
  • the color component calculation unit 31a inputs the output value of the horizontal line n of the frame image signals F 1 to F 3 (see (2) in FIG. 7) into the equation (3) and solves it to obtain the horizontal line of the fourth frame.
  • the illumination period L vv3 was exposed with VV light.
  • the VV image signal F 4vvn (VV) ((5) in FIG. 7 ) corresponding to the image signal in this case can be generated.
  • Color component calculating unit 31a, a parameter corresponding to each horizontal line n as a parameter of the matrix A k, the image signal F 3n horizontal line n operands, F 2n, and inputs the output value of F 1n (3) formula Are sequentially performed from the first horizontal line 1 to the last horizontal line N, whereby the V image signal F 4vv (V) , the G image signal F 4 vv (G) , and the VV image signal F 4 vv of the fourth frame are performed.
  • (VV) is acquired in units of frames.
  • the V light illumination is performed twice, and the two V light image signals are used, so that the sensitivity of the V light image signal and the G light image signal is improved. Balanced. Of course, it is possible to illuminate the G light twice in addition to illuminating the V light twice during the three frames.
  • the first embodiment is also applicable when the image sensor 25 is a CCD image sensor that employs a global shutter system.
  • FIG. 8 is a timing chart showing exposure and readout timing when the image sensor 25 is a CCD image sensor.
  • the illumination control unit 34a causes the light source device 4 to sequentially irradiate illumination light in the order of G light, B light, and R light.
  • the image signal F 1 of frame 1 for any all horizontal lines are read at time T 1 in each B irradiation within the period L b2.
  • the image signals F 2 and F 3 of the frames 2 and 3 are read from the image sensor 25 at times T 2 and T 3 within the R light irradiation period L r3 and the G light irradiation period L g4 .
  • the color component calculation unit 31a When the color component calculation unit 31a generates the R image signal F 4c (R) , the G image signal F 4c (G) , and the B image signal F 4c (B) in the fourth frame, the color component calculation unit 31a continues for each horizontal line.
  • the calculation process for solving the equation (3) by inputting the output value of the horizontal line to be calculated is the first horizontal line 1 To the final horizontal line N.
  • the R and B light illumination periods L r3 and L b2 and the frames 1 to 1 in the respective one-line exposure periods of the continuous frames 1 to 3 are used.
  • the R light exposure periods r 2 and r 3 , the G light exposure periods g 1 and g 3 , and the B light exposure periods b 1 and b 2 are parameters of the matrix A k in equation (3). It becomes.
  • FIG. 9 is a block diagram schematically showing the configuration of the endoscope system according to the second embodiment.
  • an endoscope system 201 according to the second embodiment includes a processing device 203 instead of the processing device 3 shown in FIG.
  • the processing device 203 includes a control unit 234 having an illumination control unit 234a.
  • the illumination control unit 234a causes the light source device 4 to illuminate illumination light of two colors of the three colors R, G, and B in one one-line exposure period.
  • the illumination control unit 234a causes the light source device 4 to perform illumination processing so that illumination light of any color is illuminated the same number of times in three consecutive one-line exposure periods.
  • the illumination control unit 234a causes the light source device 4 to illuminate in a state in which the illumination periods of the two colors of illumination light illuminated in the same one-line exposure period overlap at least partially.
  • the storage unit 36 stores an illumination period table 236a (illumination period information).
  • the illumination period table 236a is a table in which a plurality of combinations of illumination periods of illumination light of each color for which a solution of a predetermined relational expression used by the color component calculation unit 31a is uniquely determined.
  • the illumination control unit 234a is the combination of the illumination periods of the illumination lights of the respective colors indicated by the illumination period table 236a for the light source device 4 and the combination closest to the illumination period of the illumination light of each color obtained by the dimming unit 33 Illuminate each color illumination light over a period.
  • FIG. 10 is a flowchart showing a processing procedure until the processing device 203 generates an RGB image signal for one frame.
  • the illumination control unit 234a performs a previous frame illumination period acquisition process for acquiring the illumination period of the previous frame (step S11). In step S11, the illumination control unit 234a acquires each illumination period of the two lights of one frame in the past.
  • Step S12 is step S1 shown in FIG.
  • the illumination control unit 234a performs an illumination period table reference process that refers to the illumination period table 236a in the storage unit 36 (step S13).
  • the illumination control unit 234a also considers the illumination period of the previous frame acquired in step S11, and among the combinations of the illumination periods of the illumination lights of the respective colors shown in the illumination period table 236a, each of the colors obtained by the dimming unit 33 is obtained.
  • An illumination period setting process is performed for setting the illumination period of each color to be illuminated next in the combination illumination period closest to the illumination period of the illumination light (step S14).
  • the illumination control unit 234a performs an illumination control process for causing the light source device 4 to illuminate each illumination light during the set illumination period (step S15).
  • Steps S16 to S18 are steps S3 to S5 shown in FIG.
  • FIG. 11 is a timing chart showing exposure and readout timings in the image sensor 25 shown in FIG.
  • an image signal ((2) in FIG. 11) read from the image sensor 25 corresponding to the exposure and readout timing ((1) in FIG. 11) of the image sensor 25 is generated based on the image signal.
  • R, G, B image signals ((3) to (5) in FIG. 11) are also shown. Note that in (3) to (5) of FIG. 11, the generation timing of the image signal of each color component is set to the actual timing in order to facilitate description of the image signal used for generation of the image signal of each color component. It is shown in a state moved from.
  • the illumination control unit 234a sets the illumination period for illuminating the light source device 4 with illumination light of two colors of R, G, and B in one line exposure period in the illumination period set in step S13.
  • the process (step S14) is executed such that illumination light of any color is illuminated the same number of times in three consecutive one-line exposure periods.
  • the illumination control unit 234a causes the light source device 4 to illuminate in a state where the illumination periods of the two colors of illumination light illuminated in the same one-line exposure period overlap at least partially.
  • the illumination control unit 234a gives the light source device 4 the end time T 1 , T 2 , T 3 , T 4 , T 5 of the one-line exposure period of each frame, as in the first embodiment. Turn off with.
  • the one-line exposure period of frame 1 B light of the first light is irradiated in the illumination period L b1 and R light of the second light is illuminated in the illumination period L r1 , and one line of frame 2 is irradiated.
  • the G light of the first light is irradiated in the illumination period L g2 and the B light of the second light is illuminated in the illumination period L b2.
  • the R light of the first light Is irradiated in the illumination period L r3 and the second G light is illuminated in the illumination period L g3 .
  • the illumination light of any color is illuminated the same number of times in three consecutive frames, and the illumination periods of the two colors of illumination light illuminated in the same one-line exposure period partially overlap. Illuminated in the state to do.
  • the output values of the frame image signals F 1 to F 5 read in the image signal reading process in step S16 differ in the color and number of illumination light, the number of times of illumination, and the illumination period depending on the horizontal line. The value corresponds to the light exposure.
  • n and the illumination periods and frames (k-3) to (k-1) of the first light and the second light in each one-line exposure period of successive frames (k-3) to (k-1) The matrix A k based on the exposure periods of the first light and the second light on the horizontal line n, and the R image signal F kn (R) , G image signal F kn (G) , of the horizontal line n of the frame k, A ternary linear simultaneous equation indicating the relationship with the B image signal F kn (B) is established (equation (1)).
  • the color component calculation unit 31a obtains an inverse matrix A k ⁇ 1 of the matrix A k corresponding to the second embodiment for each horizontal line n, solves the equation (2), and calculates the R image signal of the horizontal line n of the frame k.
  • F kn (R) , G image signal F kn (G) , and B image signal F kn (B) are obtained.
  • the exposure periods of the first light and the second light on the horizontal line n in are the parameters of the matrix Ak .
  • the R image signal F 4n (R) , the G image signal F 4n (G) , and the B image signal F 4n (B) of the horizontal line n of the fourth frame are represented by the following expressions (6) as follows. 3, the output values of the image signals F 1n , F 2n , and F 3n of the horizontal line n in FIG.
  • the exposure periods G 2 and G 3 for the light G light are parameters of the matrix A 4 in the arithmetic expression of the fourth frame.
  • a row vector (r 3 + R 3 , G 3 , b 3 ) composed of the first row molecular components of the matrix A 4 in the equation (6) is represented by Sa
  • a row vector (r 2 , g 2 + G 2 , B 2 ) is referred to as Sb
  • a row vector (R 1 , g 1 , b 1 + B 1 ) composed of the molecular components in the third row is referred to as Sc.
  • Color component calculating unit 31a applies the illumination period and the exposure time of each of the first and second colors corresponding to the horizontal line n as a parameter of the matrix A 4, the image signal F 3n, F 2n, F 1n horizontal line An arithmetic process for solving the equation (6) in which the output value of n is input is performed. As a result, the color component calculation unit 31a corresponds to the R image signal F 4n ( corresponding to the image signal when exposed with the R light in the period (R 1 + L r3 + R 3 ) corresponding to the horizontal line n of the fourth frame.
  • G image signal F 4n (G) corresponding to an image signal when exposed to G light during a period (L g2 + L g3 ), and B light exposed during a period (b 1 + L b2 + b 3 )
  • the B image signal F 4n (B) corresponding to the image signal can be generated.
  • Color component calculating unit 31a using the parameters corresponding to each horizontal line n as a parameter of the matrix A k, the image signal F 3n horizontal line n operands, F 2n, and inputs the output value of F 1n (6) Arithmetic processing for solving the equations is sequentially performed from the first horizontal line 1 to the last horizontal line N.
  • the color component calculation unit 31a can acquire the R image signal F 4 (R) , the G image signal F 4 (G) , and the B image signal F 4 (B) of the fourth frame in units of frames.
  • Image signals (R image signal F 5n (R) , G image signal F 5n (G) , B image signal F 5 (B) ) of each color component are generated, and the R image signal F 5 (R) of the fifth frame is generated.
  • G image signal F 5 (G) and B image signal F 5 (B) are acquired in units of frames. The same applies to the sixth frame.
  • the matrix A 4 in the equation (6) can be decomposed as the following equation (7).
  • the matrix A 4 includes the matrix A 4-1 and the second light whose parameters are the exposure times r 2 , r 3 , g 1 , g 2 , b 1 , and b 3 by the first light.
  • the matrix A 4-3 is a diagonal matrix, it is rank 3 and an inverse matrix exists.
  • the matrix after the addition of the matrix A 4-1 and the matrix A 4-2 may be rank 3.
  • the row vector (r 3 , 0, b 3 ) composed of the first row components of the matrix A 4-1 in the equation (7) is referred to as Saa
  • the row vector (r 2 , g 2 , 0) is Sba
  • a row vector (0, g 1 , b 1 ) composed of the components in the third row is called Sca.
  • the row vector (R 3 , G 3 , 0) composed of the first row components of the matrix A 4-2 in the equation (7) is represented by Sab
  • FIG. 12 is a diagram for explaining the uniqueness of the solution of the image signal obtained in the second embodiment.
  • the row vectors Saa, Sba, Sca of the matrix A 4-1 , and the row vectors Sab, S of the matrix A 4-2 are illustrated. It is a figure which shows the case where Sbb and Scb are seen in R, G, and B space.
  • FIG. 12 shows a case where the illumination periods of any color are all synchronous and no dimming is performed. In this case, the row vector Saa and the row vector Scb draw the same trajectories P Saa and P Scb on the RB plane.
  • the row vector Sba and the row vector Sab draw the same trajectories P Sba and P Sab on the RG plane, and the row vector Sca and the row vector Sbb have the same trajectory P Sca and P Sb on the GB plane.
  • Draw Sbb .
  • the row vector Sa in (6) follows a trajectory P Sa of the end point was the point P 2 and starting from the point P 1
  • row vector Sb makes the point P 3 as a starting point the point P 1 the follow the trajectory P Sb to the end point
  • row vector Sc follows the trajectory P Sc of the end point was the point P 3 starting from the point P 2.
  • row vector Sa ⁇ Sc is always linearly independent, since the matrix A 4 becomes rank 3, the inverse matrix A 4 -1 of the matrix A 4 in (6) is present, (6) the solution of equation unique Determined.
  • FIG. 13 is a diagram for explaining the uniqueness of the solution of the image signal obtained in the second embodiment.
  • the row vectors Saa, Sba, Sca of the matrix A 4-1 , and the row vectors Sab, S of the matrix A 4-2 are illustrated. It is a figure which shows the other example at the time of seeing Sbb and Scb in R, G, B space.
  • the illumination periods of the respective colors other than the illumination period L g3 of the G light that is the second light of the frame 3 in the illumination periods of the respective colors are all in the same period, and the illumination period L g3 is more than the other illumination periods. Only the case where only a long dimming is shown.
  • the row vector Sba and the row vector Sab draw different trajectories P Sba and P Sab on the RB plane, but the end points are the same.
  • the row vector Sca and the row vector Sbb draw different trajectories P Sca and P Sbb on the GB plane, but their starting points are the same. Therefore, the point P corresponding to the illumination period L g3 is finally compared with the start point of the trajectory P sa of the row vector Sa and the end point of the trajectory P sb of the row vector Sb in the equation (6) as compared with the case of FIG. 4 , the row vectors Sa to Sc are always linearly independent, and the matrix A 4 is ranked 3.
  • each R image signal F 4n (R) , G image signal F 4n (G) , B The value of the image signal F 4n (B) can be obtained by calculation.
  • the illumination period closest to the dimming condition is selected from the combinations of illumination periods of the illumination lights of the respective colors for which the solution of the relational expression (equation (6)) used by the color component calculation unit 31a is uniquely determined. By illuminating each light in combination, the calculation by the color component calculation unit 31a is simplified.
  • step S17 all of the R, G, and B image signals are calculated in one frame.
  • the synchronization unit 31e performs exposure in two periods close to the reading period of the last frame among the three consecutive frames used in the calculation among the R, G, and B image signals. Since the image signal of the color to be processed becomes a low afterimage, it is adopted in the synchronization processing.
  • the G image signal F 4 (G) corresponding to two periods of the exposure period L g3 and the exposure period L g2 that are close to the readout periods T 3 to T 4 in the frame 3 is adopted, and the fifth frame
  • the R image signal F 5 (R) corresponding to the two periods of the exposure period L r4 and the exposure period L r3 closest to the readout period T 4 to T 5 in the frame 4 is adopted
  • the frame 5 The B image signal F 6 (B) corresponding to the exposure period L b5 and the exposure period L b4 closest to the readout period T 5 to T 6 is adopted, and the adopted R image signal F 4 (R) and G image signal F are adopted.
  • 5 (G) and B image signal F 6 (B) are used for synchronization to generate an RGB image signal.
  • the image signal of each color component of the acquisition target frame is obtained in the arithmetic processing using the output values of the image signals of a plurality of consecutive frames. Since it is extracted, the same effect as in the first embodiment is obtained. Furthermore, in Embodiment 2, the illumination frequency of each color is increased as compared with Embodiment 1, so that afterimages when the subject moves can be reduced.
  • FIG. 14 is a timing chart showing exposure and readout timing when the image sensor 25 is a CCD image sensor.
  • the illumination control unit 234a irradiates the light source device 4 with G light, B light, and R light under the conditions shown in (1) of FIG. 14, for example, the R image signal F 4c (R) of the fourth frame, the G image signal When generating F 4c (G) and B image signal F 4c (B) , the output values of three consecutive frame image signals F 1 to F 3 (see (2) in FIG. 14) are set for each horizontal line. Then, the calculation is performed by inputting into the equation (6).
  • the periods B 1 and B 2 and the exposure periods G 2 and G 3 for the second light G light are parameters of the matrix A 4 in the equation (6).
  • the second embodiment can be applied to the NBI observation method as in the first embodiment.
  • the illumination control unit 234a uses a combination of V light, G light, and no light, a combination of V light, G light, and VV light, or V light, G light, and GG light (the second G light).
  • Embodiment 3 Next, Embodiment 3 will be described.
  • the third embodiment a case where all three colors of illumination light are illuminated in one single line exposure period will be described.
  • FIG. 15 is a block diagram schematically illustrating the configuration of the endoscope system according to the third embodiment.
  • the endoscope system 301 according to the third embodiment includes a processing device 303 instead of the processing device 203 illustrated in FIG. 9.
  • the processing device 303 includes a control unit 334 having an illumination control unit 334a.
  • the illumination control unit 334a causes the light source device 4 to illuminate all the illumination lights of R, G, and B in different illumination periods in one single line exposure period.
  • the illumination control unit 334a causes the light source device 4 to illuminate the three colors of illumination light so as to include a period in which all of the three colors of illumination light illuminated in the same one-line exposure period are illuminated.
  • the storage unit 36 includes an illumination period table 336a in which a plurality of combinations of illumination periods of illumination light of each color for which a solution of a predetermined relational expression used by the color component calculation unit 31a is uniquely determined is shown. (Lighting period information) is stored.
  • the illumination control unit 334a is the combination of the illumination periods of the illumination lights of the respective colors indicated by the illumination period table 336a for the light source device 4 and the combination closest to the illumination period of the illumination light of each color obtained by the dimming unit 33 Illuminate each color illumination light over a period.
  • FIG. 16 is a flowchart showing a processing procedure until the processing device 303 generates an RGB image signal for one frame.
  • the illumination control unit 334a performs a previous frame illumination period acquisition process for acquiring the illumination period of the previous frame (step S21).
  • the illumination control unit 334 a acquires each illumination period of three lights in the past of one frame and each illumination period of three lights in the past of two frames.
  • Step S22 is step S1 shown in FIG.
  • the illumination control unit 334a performs an illumination period table reference process that refers to the illumination period table 336a in the storage unit 36 (step S23).
  • the illumination control unit 334a also considers the illumination period of the previous frame acquired in step S21, and out of the combinations of illumination periods of the illumination lights of the respective colors shown in the illumination period table 336a, each color obtained by the dimming unit 33.
  • An illumination period setting process is performed for setting the illumination period of each color to be illuminated next in the combination illumination period closest to the illumination period of the illumination light (step S24).
  • the illumination control unit 334a performs an illumination control process for causing the light source device 4 to illuminate each illumination light during the set illumination period (step S25).
  • Steps S26 to S28 are steps S3 to S5 shown in FIG.
  • FIG. 17 is a timing chart showing exposure and readout timings in the image sensor 25 shown in FIG.
  • an image signal ((2) in FIG. 17) read from the image sensor 25 corresponding to the exposure and readout timing ((1) in FIG. 17) of the image sensor 25 is generated based on the image signal.
  • R, G, B image signals ((3) to (5) in FIG. 17) are also shown.
  • the generation timing of the image signal of each color component is set to the actual timing in order to facilitate the description of the image signal used for generating the image signal of each color component. It is shown in a state moved from.
  • the illumination control unit 334a performs an illumination process (step S24) for causing the light source device 4 to illuminate all three colors of R, G, and B in one line exposure period in the illumination period set in step S23.
  • the three color illumination periods in the same one-line exposure period are illuminated in different periods.
  • the illumination control unit 334a illuminates the three colors of illumination light so as to include a period in which all of the three colors of illumination light to be illuminated in the same one-line exposure period are illuminated.
  • the illumination control unit 334a gives the light source device 4 the end time T 1 , T 2 , T 3 , T 4 , T 5 for each frame, as in the first embodiment. Turn off with.
  • the first light G light is irradiated in the illumination period L g1
  • the second light B light is illuminated in the illumination period L b1 ( ⁇ L g1 )
  • Three R lights are illuminated in the illumination period L r1 ( ⁇ L b1 ).
  • the first light B light is irradiated in the illumination period L b2
  • the second light R light is illuminated in the illumination period L r2 ( ⁇ L b2 )
  • the third light G light is emitted.
  • the R light of the first light is irradiated in the illumination period L r3
  • the G light of the second light is illuminated in the illumination period L g3 ( ⁇ L r3 )
  • the B light of the third light Are illuminated in the illumination period L b3 ( ⁇ L g3 ).
  • the three color illumination periods in the same one-line exposure period are illuminated in different periods, and all the three color illumination lights illuminated in the same one-line exposure period are illuminated in duplicate.
  • the illumination light of the three colors is illuminated so as to include the period.
  • the output values of the image signals F 1 to F 5 of the frame read out in the image signal reading process in step S26 are different in the color and number of illumination light, the number of times of illumination, and the illumination period depending on the horizontal line. The value corresponds to the light exposure.
  • n the illumination periods of the first light, the second light, and the third light in each one-line exposure period of successive frames (k-3) to (k-1), and the frame (k-3)
  • a matrix A k based on the exposure periods of the first light, the second light, and the third light on the horizontal line n in (k ⁇ 1) and the R image signal F kn (R) of the horizontal line n of the frame k , G image signal F kn (G) , B image signal F kn (B) , a ternary linear simultaneous equation (equation (1)) is established.
  • the color component calculation unit 31a obtains an inverse matrix A k ⁇ 1 of the matrix A k corresponding to the third embodiment for each horizontal line, solves the equation (2), and solves the R image signal F of the horizontal line n of the frame k.
  • kn (R) , G image signal F kn (G) , and B image signal F kn (B) are obtained.
  • the exposure periods of the first light, the second light, and the third light on the horizontal line n in (k ⁇ 1) are parameters of the matrix A k .
  • the frame 1 to The output value of the horizontal line n in the three image signals F 1n , F 2n , and F 3n is input and obtained.
  • the exposure period g 1 for G light of the third light ', g 2', exposure period b 2 for the third light B lights ', b 3' is, the fourth frame
  • the row vector (r 3 + r 3 ′, g 2 + G 3 , B 3 + b 3 ′) composed of the molecular components of the first row of the matrix A 4 in the equation (8) is composed of Qa and the molecular components of the second row.
  • the row vector (r 2 + R 2 , G 2 + g 2 ′, b 2 + b 2 ′) is defined as Qb, the row vector (R 1 + r 1 ′, g 1 + g 1 ′, b 1 + B 1 ) composed of the molecular components in the third row. ) Is called Qc.
  • Color component calculating unit 31a applies the first color each corresponding to the horizontal line n, second color and third color illumination period and the exposure time as a parameter of the matrix A 4, the image signal F 3n, F 2n, F An arithmetic process for solving the equation (8) in which the output value of the 1n horizontal line n is input is performed.
  • the B image signal F 4n (B) corresponding to the image signal in the case of being generated can be generated.
  • Color component calculating unit 31a using the parameters corresponding to each horizontal line as a parameter of the matrix A k, the image signal F 3n horizontal line operands, F 2n, and inputs the output value of F 1n (8) below
  • the calculation processing to be solved is sequentially performed from the first horizontal line 1 to the last horizontal line N.
  • the color component calculation unit 31a can acquire the R image signal F 4 (R) , the G image signal F 4 (G) , and the B image signal F 4 (B) of the fourth frame in units of frames. About five frames later, and calculates (8) by applying the corresponding parameter in a matrix A k of the equation, the inverse matrix A k -1 of the matrix A k for each horizontal line n, each color for each horizontal line n Get component image signal.
  • the matrix A 4 includes the matrix A 4-11 and the second light whose parameters are the exposure times r 2 , r 3 , g 1 , g 3 , b 1 , and b 2 by the first light.
  • Matrix A 4-12 in which each exposure time R 1 , R 2 , G 2 , G 3 , B 1 , B 3 is a parameter, and each exposure time r 1 ′, r 3 ′, g 1 ′, Matrix A 4-13 in which g 2 ′, b 2 ′, and b 3 ′ are parameters, and the inverse of the sum of the first light irradiation period, the second light irradiation period, and the third light irradiation period is a parameter.
  • the matrix after the addition of the matrix A 4-11 to the matrix A 4-13 may be rank 3.
  • the row vector (r 3 , g 3 , 0) composed of the first row components of the matrix A 4-11 in the equation (9) is denoted as Qaa
  • the row vector (r 2 , 0, b composed of the second row components). 2 ) is called Qba
  • a row vector (0, g 1 , b 1 ) composed of the components in the third row is called Qca.
  • the row vector (0, G 3 , B 3 ) composed of the first row components of the matrix A 4-12 in the equation (9) is expressed as Qab, the row vector (R 2 , G 2 , 0) composed of the second row components. Is a row vector (R 1 , 0, B 1 ) composed of the components in the third row and Qbb.
  • the row vector (r 3 ′, 0, b 3 ′) composed of the first row components of the matrix A 4-13 in the equation (9) is represented by Qac, and the row vector (0, g 2 ′, composed of the second row components).
  • b 2 ′) is referred to as Qbc
  • a row vector (r 1 ′, g 1 ′, 0) composed of the components in the third row is referred to as Qcc.
  • FIG. 18 is a diagram for explaining the uniqueness of the solution of the image signal obtained in the third embodiment.
  • the row vectors Qaa, Qba, Qca of the matrix A 4-11 and the row vectors Qab, A of the matrix A 4-12 are explained. It is a figure which shows the case where Qbb and Qcb and the row vector Qac, Qbc, Qcc of matrix A 4-13 are seen in R, G, B space.
  • the R, G, and B illumination periods of the first light are synchronous
  • the R, G, and B illumination periods of the second light are synchronous
  • the third light R, G, and B are synchronized.
  • the illumination period is the same period
  • the first light is three times as long as the third light
  • the second light is twice as long as the third light.
  • the row vectors Qaa, Qba, Qca corresponding to the exposure period of the first light are on the R, G, and B axes on the RG, BR, and GB planes. Trajectories P Qaa , P Qba , and P Qca that have three points corresponding to the illumination time width of the first light as starting points or ending points are drawn. Row vectors Qab, Qbb, and Qcb corresponding to the exposure period of the second light are on the R, G, and B axes on the RG, BR, and GB planes. Trajectories P Qab , P Qbb , and P Qcb starting from or ending at three points corresponding to the illumination time width of the second light are drawn.
  • Row vectors Qac, Qbc, and Qcc corresponding to the exposure period of the third light are on the R, G, and B axes on the RG, BR, and GB planes. Trajectories P Qac , P Qbc , and P Qcc starting from or ending at three points corresponding to the illumination time width of the third light are drawn.
  • row vector Qaa, Qab row vector Qa of the matrix A 4 is a composite vector of Qac will draw a trajectory P Qa
  • row vectors Qba, Qbb row vector Qb of the matrix A 4 is a composite vector of Qbc is
  • row vector Qc of the matrix a 4 is a composite vector of Qcc the triangle area formed by the locus drawn the trajectory P Qc, corresponds to a row vector Qa ⁇ Qc It will be in the state which has. In this case, the corresponding trajectories do not overlap for any of the row vectors Qa to Qc. Holding the row vector Qa ⁇ Qc is independence, since the matrix A 4 becomes rank 3, (8) the inverse matrix A 4 -1 of the matrix A 4 in formula is present, (8) the solution of equation uniquely Determined.
  • FIG. 19 is a diagram for explaining the uniqueness of the solution of the image signal obtained in the third embodiment.
  • the row vectors Qaa, Qba, Qca of the matrix A 4-11 and the row vectors Qab, A of the matrix A 4-12 are explained. It is a figure which shows the other example at the time of seeing Qbb, Qcb and row vector Qac, Qbc, Qcc of matrix A 4-13 in R, G, B space.
  • the R light illumination period L r3 of the first light of the frame 3 is set to be (4/3) times the illumination period of the first light of the other frames 1 and 2, and the second light
  • the G light illumination period L g3 is made (4/3) times longer than the second light illumination period of the other frames 1 and 2
  • the third light B light illumination period L b3 is made longer than the other frames 1 and 2. The case where it is made longer by (4/3) times the illumination period of the third light of 2 is shown.
  • the origin of the trajectory P Qba and the end point of the trajectory P Qca are longer than (4/3) times the illumination period of the first light of the other frames 1 and 2. becomes a point corresponding to the illumination period L r3 of the first light of the R light, the origin and end point of the trajectory P Qbb trajectory P Qab is, (4/3) times the illumination period of the second light of other frames 1 and 2 long it will point corresponding to the illumination period L g3 of the second light G lights frame 3, the starting point and end point of the trajectory P QBC trajectory P Qac is the illumination period of the second light other frames 1 and 2 ( This is a point corresponding to the illumination period L b3 of the B light of the third light of the frame 3 that is 4/3) times longer.
  • the triangle formed by the trajectories P Qa , P Qb , and P Qc corresponding to the row vectors Qa to Qc has an area, the row vectors Qa to Qc retain independence, and the matrix A 4 is ranked. 3 Therefore, in Embodiment 3, the illumination periods of the first light, the second light, and the third light may be changed to periods different from the illumination periods of the first light, the second light, and the third light in other frames. Is possible.
  • the row vectors Qaa, Qbb, and Qcc overlap and the row vectors Qac, Qba, and Qcb overlap.
  • the row vectors Qab, Qbc, Qca overlap.
  • the row vectors Qa to Qc are located at the center of gravity of the triangle formed by the trajectories of the row vectors Qaa, Qbb, Qcc, the row vectors Qac, Qba, Qcb, and the row vectors Qab, Qbc, Qca, and do not move.
  • the illumination control unit 334 a It is necessary to control so that the illumination periods of the three colors in the same one-line exposure period are illuminated in different periods.
  • the illumination control unit 334a sets a condition for increasing the difference between the illumination periods of the first light, the second light, and the third light in the same one-line exposure period. It is desirable.
  • the image signal of each color component of the acquisition target frame is calculated in the calculation process using the output values of the image signals of a plurality of consecutive frames. Since it is extracted, the same effect as in the first embodiment is obtained. Further, in the third embodiment, the afterimage when the subject moves can be reduced by the amount that the illumination frequency of each color is increased more than in the second embodiment.
  • FIG. 20 is a timing chart showing exposure and readout timing when the image sensor 25 is a CCD image sensor.
  • the illumination control unit 334a irradiates the light source device 4 with G light, B light, and R light under the conditions shown in FIG. 20 (1), for example, the R image signal F 4c (R) of the fourth frame, the G image signal When generating F 4c (G) and B image signal F 4c (B) , the same as the horizontal line to be calculated of three consecutive frame image signals F 1 to F 3 (see (2) in FIG. 20).
  • the line output value is input to equation (8) and calculated for each horizontal line.
  • each of the illumination periods L b1 , L r2 , and L g3 of the two B, R, and G lights each of the illumination periods L r1 , L g2 , and L b3 of the third, R, G, and B lights, and in the frames 1 to 3 Exposure periods g 1 and g 3 for the first light G light to the horizontal line n, exposure periods b 1 and b 2 for the first light B light, exposure periods r 2 and r 3 for the first light R light, Exposure periods B 1 and B 3 for the second light B light, exposure periods R 1 and R 2 for the second light R light, exposure periods G 2 and G 3 for the second light G light, and the third light R Exposure period r 1 ′, r 3 ′ for light, exposure period
  • the third embodiment can be applied to the NBI observation method as in the first and second embodiments.
  • the illumination control unit 334a is either a combination of V light, G light, and no light, a combination of V light, G light, and VV light, or a combination of V light, G light, and GG light.
  • the illumination process for illuminating all three colors of illumination light in one one-line exposure period is used for the same three-line illumination period in the same one-line exposure period. May be executed so that they are illuminated in different periods.
  • illumination light of three colors is illuminated so as to include a period in which all of the illumination light of the three colors illuminated in the same one-line exposure period are illuminated is described as an example. but was, it may not overlap the illumination period of the illumination light of three colors to be illuminated in (8) as long as the conditions matrix a 4 is No. 3 of formula, the same one-line exposure period.
  • the processing devices 3, 203, and 303 which are separate from the light source device, have been described as an example.
  • the present invention can be applied to a light source integrated processing device in which a light source is integrated.
  • the combination of illumination light is not limited to the combination of R, G, B light, or the combination of narrowed V light and G light.
  • a combination of G light, excitation light, and excitation light, or a combination of G light, first R light, and second R light in a different wavelength band may be used.
  • the present embodiment is applied if the wavelength bands are different in two illumination lights of the illumination light emitted in units of three times. Is possible.
  • An execution program for each process executed by the processing devices 3, 203, 303 and other components according to the present embodiment is a CD-ROM, flexible file in an installable format or an executable format file. It may be configured to be recorded on a computer-readable recording medium such as a disk, CD-R, or DVD (Digital Versatile Disk), and stored on a computer connected to a network such as the Internet. You may comprise so that it may provide by making it download via. Further, it may be configured to be provided or distributed via a network such as the Internet.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 本発明にかかる内視鏡システム1は、異なる色の照明光をフレーム周期に対応させて順次発する光源装置4と、照明光が照射された被写体からの光を光電変換して画像信号を生成して出力する複数の画素が行列状に配置された撮像素子25を有する内視鏡2と、撮像素子25から出力された画像信号のうち、照明光の色の数に応じた連続する複数のフレームの画像信号の出力値を用いて各色成分信号を撮像素子25における画素配列のラインごとに演算する色成分演算部31aを有する処理装置3と、を有する。

Description

内視鏡システムおよび処理装置
 本発明は、内視鏡を備えた内視鏡システムおよび内視鏡から出力された画像信号を処理する処理装置に関する。
 従来、医療分野においては、被検体内部の観察のために内視鏡システムが用いられている。内視鏡は、一般に、患者等の被検体内に細長形状をなす可撓性の挿入部を挿入し、この挿入部先端から、光源装置から供給された照明光を照明し、この照明光の反射光を挿入部先端の撮像部で受光することによって、体内画像を撮像する。このように内視鏡の撮像部によって撮像された体内画像は、内視鏡システムの処理装置において所定の画像処理を施された後に、内視鏡システムのディスプレイに表示される。医師等のユーザは、ディスプレイに表示される体内画像に基づいて、被検体の臓器の観察を行う。
 このような内視鏡システムが有する撮像素子にCMOS(Complementary Metal Oxide Semiconductor)センサを適用するとともに、被写体に対する照明光として青色光、緑色光および赤色光を順次照射し、この三色の光に対応する撮像信号を順次生成する技術が提案されている(例えば、特許文献1参照)。
特開2013-202189号公報
 CMOSセンサは、水平ラインごとにタイミングをずらして露光または読み出しを行うローリングシャッタ方式によって画像データを生成する。このCMOSセンサにおいて、全画素に対して十分な露光期間を確保するためには、全ての水平ラインで共通して露光させることが可能な期間(Vブランク期間)の比率を上げることが必要となる。しかしながら、Vブランク期間の比率を上げた場合には、その分だけ、信号伝送用の期間が減り、CMOSセンサからの高速読み出しが必要となるため、撮像ケーブルでの高速伝送が必要となり、伝送負担が大きくなるという問題があった。
 本発明は、上記に鑑みてなされたものであって、ケーブルの伝送負担を抑制しながら全画素に対して十分な露光期間が確保できる内視鏡システムおよび処理装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる内視鏡システムは、被写体を照明するための照明光として、異なる色の照明光を所定の周期に対応させて順次発する光源装置と、前記照明光が照射された被写体からの光を光電変換して画像信号を生成して出力する複数の画素が行列状に配置された撮像素子を有する内視鏡装置と、前記撮像素子から出力された画像信号のうち、前記照明光の色の数に応じた連続する複数のフレームの画像信号の出力値を用いて各色成分信号を前記撮像素子における画素配列のラインごとに演算する色成分演算部を有する処理装置と、を有することを特徴とする。
 また、本発明にかかる内視鏡システムは、前記色成分演算部は、前記撮像素子から画像信号が出力された最新のフレームと、該フレームの前のフレームの画像信号の出力値のうち、演算対象であるラインと同ラインの出力値を用いて、演算対象であるラインの色成分信号を演算することを特徴とする。
 また、本発明にかかる内視鏡システムは、前記処理装置は、前記光源装置に対し、1ライン露光期間ごとに、1ライン露光期間以下の期間で前記照明光を照明させる制御を行う照明制御部を備えたことを特徴とする。
 また、本発明にかかる内視鏡システムは、前記照明制御部は、前記光源装置に、各色の照明光が一定の条件を満たすように各色の照明光を照明させ、前記色成分演算部は、演算に使用する各フレームにおける各色の1ライン露光期間の1回あたりのそれぞれの照明期間と、演算に使用する各フレームにおける演算対象のラインへの各色のそれぞれの露光期間と、を用いた関係式を用いて、ラインごとに各色成分信号を演算することを特徴とする。
 また、本発明にかかる内視鏡システムは、前記光源装置は、3色の照明光を照明し、前記色成分演算部は、前記撮像素子から画像信号が出力された最新のフレームと、該フレームの1つ前のフレームおよび2つ前のフレームとにおける画像信号の出力値のうち、演算対象であるラインと同ラインの出力値を前記関係式に適用して、演算対象のラインにおける各色成分信号を演算することを特徴とする。
 また、本発明にかかる内視鏡システムは、前記照明制御部は、前記光源装置に対し、1つの前記1ライン露光期間に前記3色のうちの1色の照明光を照明させる照明処理を順次実行させることを特徴とする。
 また、本発明にかかる内視鏡システムは、前記照明制御部は、前記光源装置に対し、1つの前記1ライン露光期間に前記3色のうちの2色の照明光を照明させることを特徴とする。
 また、本発明にかかる内視鏡システムは、前記照明制御部は、前記光源装置に対し、前記2色の照明光の照明期間が少なくとも一部で重複する状態で照明させることを特徴とする。
 また、本発明にかかる内視鏡システムは、前記照明制御部は、前記光源装置に対し、1つの前記1ライン露光期間に前記3色の全ての照明光をそれぞれ異なる照明期間で照明させることを特徴とする。
 また、本発明にかかる内視鏡システムは、前記照明制御部は、前記光源装置に対し、前記3色の照明光のいずれもが重複して照明される期間を含むように前記3色の照明光を照明させることを特徴とする。
 また、本発明にかかる内視鏡システムは、前記処理装置は、前記撮像素子から出力された画像信号から画像の明るさを検出し、該検出した画像の明るさを基に前記光源装置から照射させる各色の照明光の照明期間を求める調光部と、前記関係式の解が一意に定まる各色の照明光の照明期間の組み合わせが複数示された照明期間情報を記憶する記憶部と、をさらに備え、前記照明制御部は、前記光源装置に対し、前記記憶部が記憶する照明期間情報で示された各色の照明光の照明期間の組み合わせのうち、前記調光部が求めた各色の照明光の照明期間に最も近い組み合わせの照明期間で各色の照明光を照明させることを特徴とする。
 また、本発明にかかる内視鏡システムは、前記3色の照明光は、赤色光、緑色光、青色光であることを特徴とする。
 また、本発明にかかる内視鏡システムは、前記撮像素子は、CMOS撮像素子であることを特徴とする。
 また、本発明にかかる内視鏡システムは、前記照明制御部は、前記光源装置に対して、前記照明光を、前記撮像素子における先頭ラインの画素に対する露光期間の終了タイミングと同じタイミングで消灯させることを特徴とする。
 また、本発明にかかる内視鏡システムは、前記撮像素子は、CCD撮像素子であることを特徴とする。
 また、本発明にかかる処理装置は、被写体を照明するための照明光を発する光源装置を制御するとともに、前記照明光が照射された被写体からの光を光電変換して画像信号を生成して出力する複数の画素が行列状に配置された内視鏡装置の撮像素子から出力された画像信号を処理する処理装置であって、前記光源装置に対し、異なる色の照明光を所定の周期に対応させて順次照明させる照明制御部と、前記内視鏡装置の撮像素子から出力された画像信号の出力値のうち、前記照明光の色の数に応じた連続する複数のフレームの画像信号の出力値を用いて各色成分信号を前記撮像素子における画素配列のラインごとに演算する色成分演算部と、を備えたことを特徴とする。
 本発明によれば、撮像素子から出力された画像信号のうち、照明光の色の数に応じた連続する複数のフレームの画像信号の出力値を用いて、取得対象のフレームの各色成分の画像信号をラインごとに演算処理によって求めているため、Vブランク期間を設けずとも全画素を十分な期間で露光することができ、ケーブルの伝送負担を抑制しながら全画素に対して十分な露光期間が確保できる。
図1は、本発明の実施の形態1にかかる内視鏡システムの概略構成を示す模式図である。 図2は、図1に示す内視鏡システムの構成を模式的に示すブロック図である。 図3は、図2に示す処理装置において1フレーム分のRGB画像信号が生成されるまでの処理の処理手順を示すフローチャートである。 図4は、図2に示す撮像素子における露光、読み出しタイミングを示すタイミングチャートである。 図5は、本実施の形態1で求める画像信号の解の一意性を説明する図である。 図6は、実施の形態1の変形例1における撮像素子におけるNBI観察方式の場合における露光、読み出しタイミングを示すタイミングチャートである。 図7は、実施の形態1の変形例1における撮像素子におけるNBI観察方式の場合における露光、読み出しタイミングの他の例を示すタイミングチャートである。 図8は、実施の形態1における撮像素子がCCD撮像素子である場合の露光、読み出しタイミングを示すタイミングチャートである。 図9は、実施の形態2にかかる内視鏡システムの構成を模式的に示すブロック図である。 図10は、図9に示す処理装置において1フレーム分のRGB画像信号が生成されるまでの処理の処理手順を示すフローチャートである。 図11は、図9に示す撮像素子における露光、読み出しタイミングを示すタイミングチャートである。 図12は、本実施の形態2で求める画像信号の解の一意性を説明する図である。 図13は、本実施の形態2で求める画像信号の解の一意性を説明する図である。 図14は、実施の形態2における撮像素子がCCD撮像素子である場合の露光、読み出しタイミングを示すタイミングチャートである。 図15は、実施の形態3にかかる内視鏡システムの構成を模式的に示すブロック図である。 図16は、図15に示す処理装置において1フレーム分のRGB画像信号が生成されるまでの処理の処理手順を示すフローチャートである。 図17は、図15に示す撮像素子における露光、読み出しタイミングを示すタイミングチャートである。 図18は、本実施の形態3で求める画像信号の解の一意性を説明する図である。 図19は、本実施の形態3で求める画像信号の解の一意性を説明する図である。 図20は、実施の形態3における撮像素子がCCD撮像素子である場合の露光、読み出しタイミングを示すタイミングチャートである。
 以下の説明では、本発明を実施するための形態(以下、「実施の形態」という)として、内視鏡システムについて説明する。また、この実施の形態により、この発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付している。
(実施の形態1)
 図1は、本発明の実施の形態1にかかる内視鏡システムの概略構成を示す模式図である。図1に示すように、本実施の形態1にかかる内視鏡システム1は、被検体内に導入され、被検体の体内を撮像して被検体内の画像信号を生成する内視鏡2(スコープ)と、着脱自在に内視鏡2が装着されて内視鏡2から送信される画像信号に対して所定の画像処理を行うとともに内視鏡システム1の各部を制御する処理装置3(信号処理装置)と、内視鏡2の照明光(観察光)を生成する光源装置4と、処理装置3が画像処理を施した画像信号に対応する画像を表示する表示装置5と、を備える。
 内視鏡2は、被検体内に挿入される挿入部21と、挿入部21の基端部側であって術者が把持する操作部22と、操作部22より延伸する可撓性のユニバーサルコード23と、を備える。
 挿入部21は、照明ファイバ(ライトガイドケーブル)および電気ケーブル等を用いて実現される。挿入部21は、被検体内を撮像する撮像素子としてCMOS撮像素子を内蔵した撮像部を有する先端部21aと、複数の湾曲駒によって構成された湾曲自在な湾曲部21bと、湾曲部21bの基端部側に設けられた可撓性を有する可撓管部21cと、を有する。先端部21aには、照明レンズを介して被検体内を照明する照明部、被検体内を撮像する観察部、処理具用チャンネルを連通する開口部21dおよび送気・送水用ノズル(図示せず)が設けられている。
 操作部22は、湾曲部21bを上下方向および左右方向に湾曲させる湾曲ノブ22aと、被検体の体腔内に生体鉗子、レーザメス等の処置具が挿入される処置具挿入部22bと、処理装置3、光源装置4、送気装置、送水装置および送ガス装置等の周辺機器の操作を行う複数のスイッチ部22cと、を有する。処置具挿入部22bから挿入された処置具は、内部に設けられた処置具用チャンネルを経て挿入部21先端の開口部21dから表出する。
 ユニバーサルコード23は、照明ファイバおよび電気ケーブル等を用いて構成される。ユニバーサルコード23は、基端で分岐した処理装置3および光源装置4に着脱自在なコネクタ23a,23bを有する。ユニバーサルコード23は、先端部21aに設けられた撮像部が撮像した画像信号を、コネクタ23aを介して、処理装置3に伝送する。ユニバーサルコード23は、光源装置4から出射された照明光を、コネクタ23b、操作部22および可撓管部21cを介して先端部21aに伝播する。
 処理装置3は、ユニバーサルコード23を介して入力された内視鏡2の先端部21aにおける撮像部が撮像した被検体内の撮像信号に対して所定の画像処理を施す。処理装置3は、ユニバーサルコード23を介して内視鏡2の操作部22におけるスイッチ部22cから送信された各種の指示信号に基づいて、内視鏡システム1の各部を制御する。
 光源装置4は、複数の波長帯域(色)の光を出射する光源や集光レンズ等を用いて構成される。光源装置4は、光源から出射された光を、コネクタ23bおよびユニバーサルコード23の照明ファイバを介して接続された内視鏡2へ、被写体である被検体内へ向けて照明するための照明光として供給する。光源は、例えば、赤色(R)光、緑色(G)光および青色(B)光の光を発する。
 表示装置5は、液晶または有機EL(Electro Luminescence)を用いた表示ディスプレイ等を用いて構成される。表示装置5は、映像ケーブルを介して処理装置3によって所定の画像処理が施された表示用画像信号に対応する画像を含む各種情報を表示する。これにより、術者は、表示装置5が表示する画像(体内画像)を見ながら内視鏡2を操作することにより、被検体内の所望の位置の観察および性状を判定することができる。
 つぎに、図1で説明した内視鏡システム1の構成について説明する。図2は、図1に示す内視鏡システム1の構成を模式的に示すブロック図である。
 内視鏡2は、先端部21aに、光学系24および撮像素子25を有する。先端部21aには、光源装置4から、コネクタ23bを経由して、延伸するライトガイドケーブル23cの先端が位置する。ライトガイドケーブル23cの先端には、照明レンズ21eが設けられる。光源装置4から発せられた光は、ライトガイドケーブル23cを介して、挿入部21の先端部21aの照明窓21fから被写体に照明される。
 光学系24は、撮像素子25の前段に設けられた一または複数のレンズを用いて構成され、画角を変化させる光学ズーム機能および焦点を変化させるフォーカス機能を有する。
 撮像素子25は、受光部26および読み出し部27を有する。撮像素子25は、水平ラインごとの露光かつ読み出しが可能であるCMOS撮像素子である。
 受光部26は、受光面に複数の画素が行列状に配置される。各画素は、光が照射された被写体からの光を受光し、受光した光を光電変換して画素信号(画像信号)を生成する。受光部26の受光面側には、光学系24が配置される。
 読み出し部27は、受光部26の複数の画素が生成した画像信号を読み出す。読み出し部27は、露光および読み出しを行う撮像動作を先頭の水平ラインから実行し、水平ラインごとにタイミングをずらして、電荷リセット、露光および読み出しを行うローリングシャッタ方式によって画像信号を生成する。したがって、撮像素子25においては、1つの撮像期間(フレーム)であっても、水平ラインごとに露光タイミングおよび読み出しタイミングがそれぞれ異なる。言い換えると、1水平ラインの画素群を露光している期間(1ライン露光期間)は、いずれの水平ラインにおいても同じ時間幅であるが、水平ラインごとに始点と終点とがずれている。読み出し部27が読み出した画像信号は、電気信号(アナログ)である。撮像素子25は、読み出し部27が読み出した画像信号の電気信号に対してノイズ除去やA/D変換などを行うAFE部(不図示)や、処理装置3から受信した制御信号にしたがって撮像素子25の動作を制御する制御部(不図示)を有する。撮像素子25が生成した画像信号(デジタル)は、信号ケーブル(不図示)やコネクタ23aを介して、処理装置3に出力される。
 処理装置3は、画像処理部31と、表示制御部32と、調光部33と、制御部34と、入力部35と、記憶部36とを備える。
 画像処理部31は、撮像素子25の読み出し部27によって読み出された画像信号に対し、所定の画像処理を行う。画像処理部31は、色成分演算部31aと、撮像素子25から読み出された画像信号をフレーム単位で一時的に保持できる書き換え可能なメモリ31bと、ゲイン調整部31cと、ホワイトバランス(WB)調整部31dと、同時化部31eとを有する。画像処理部31は、オプティカルブラック減算処理、エッジ強調処理を行う場合もある。
 色成分演算部31aは、内視鏡2の撮像素子25から出力された画像信号のうち、照明光の波長帯域(色)の数に応じた連続する複数のフレームの画像信号の出力値を用いて各色成分信号を水平ラインごとに演算する。色成分演算部31aは、撮像素子25から画像信号が出力された最新のフレームと、該フレームの前のフレームの画像信号の出力値のうち、演算対象であるラインと同ラインの出力値を用いて、演算対象であるラインの色成分信号を演算する。色成分演算部31aは、演算に使用する各フレームにおける各色の1ライン露光期間の1回あたりのそれぞれの照明期間と、演算に使用する各フレームにおける演算対象の水平ラインへの各色のそれぞれの露光期間と、を用いた関係式を用いて、水平ラインごとに各色成分信号を演算する。R,G,Bの3色の照明光が照明される場合には、色成分演算部31aは、連続する3フレームにおいて、R光を照射された被写体からのR光のみを受光部26が受光した際のR画像信号、G光を照射された被写体からのG光のみを受光部26が受光した際のG画像信号、および、B光を照射された被写体からのB光のみを受光部26が受光した際のB画像信号を、水平ラインごとに生成する。
 ゲイン調整部31cは、後述する調光部33によって算出されたゲイン調整値、および、後述する照明制御部34aによって設定されたR,G,Bの3色の照明光の各照明期間をもとに、色成分演算部31aから出力された各色の色成分信号であるR,G,B画像信号のゲイン調整を行う。
 WB調整部31dは、色成分演算部31aから出力された各色成分であるR,G,B画像信号のホワイトバランスを調整する。
 同時化部31eは、入力された各R,G,B画像信号を画素ごとに設けられたメモリ(図示しない)に入力し、読み出し部27が読み出した受光部26の画素のアドレスに対応させて、各メモリの値を入力された各画像信号で順次更新しながら保持するとともに、これら3つのメモリの各画像信号をRGB画像信号として同時化する。
 表示制御部32は、画像処理部31から出力されたRGB画像信号を、表示装置5に対応させて階調変換するとともに、表示装置5に対応するフォーマットに変更した表示用画像信号を生成して表示装置5に出力する。この結果、表示装置5には、1枚の体内画像が表示される。
 調光部33は、画像処理部31に入力された画像信号から、各画素に対応する明るさレベルを検出し、検出した明るさレベルをもとに、この画像信号に対するゲイン調整値を算出する。調光部33は、検出した明るさレベルをもとに、次に発せられる照明光における光照射量を調光条件として算出する。調光部33は、算出したゲイン調整値をゲイン調整部31cに出力し、検出した明るさレベルとともに調光条件を制御部34に出力する。
 制御部34は、CPU等を用いて実現される。制御部34は、処理装置3の各部の処理動作を制御する。制御部34は、処理装置3の各構成に対する指示情報やデータの転送等を行うことによって、処理装置3の動作を制御する。制御部34は、各ケーブルを介して撮像素子25および光源装置4にそれぞれに接続されており、撮像素子25および光源装置4に対する制御も行う。制御部34は、照明制御部34aを有する。
 照明制御部34aは、調光部33から出力された調光条件をもとに光源装置4の各色の照明期間および照明強度を設定する。実施の形態1では、照明制御部34aは、照明光の照明強度を一定とし、照明期間を設定する。照明制御部34aは、各光源に供給する電流量や電流供給期間等の駆動条件を設定して、設定条件を含む光源同期信号を光源装置4に出力する。照明制御部34aは、光源装置4が発する光の種別、光量、照明タイミングを設定する。照明制御部34aは、光源装置4に対し、先頭の水平ライン1における露光期間(1ライン露光期間)ごとに、1ライン露光期間以下の期間で照明光を照明させる制御を行う。なお、照明制御部34aは、撮像素子25の出力値が飽和しない条件で、照射時間、照射強度を設定する。照明制御部34aは、撮像素子25の出力値が飽和する手前の照射時間、照射強度を設定し、ゲイン調整部31cは、マイナスゲインで画像信号をゲイン調整してもよい。
 入力部35は、マウス、キーボードおよびタッチパネル等の操作デバイスを用いて実現され、内視鏡システム1の各種指示情報の入力を受け付ける。具体的には、入力部35は、被検体情報(例えばID、生年月日、名前等)、内視鏡2の識別情報(例えばIDや検査対応項目)および検査内容等の各種指示情報の入力を受け付ける。
 記憶部36は、揮発性メモリや不揮発性メモリを用いて実現され、処理装置3および光源装置4を動作させるための各種プログラムを記憶する。記憶部36は、処理装置3の処理中の情報を一時的に記録する。記憶部36は、読み出し部27によって読み出された画像信号を記憶する。また、記憶部36は、画像処理部31において処理された画像信号を記憶する。
 光源装置4は、光源制御部41と、光源ドライバ43および光源44を備えた照明部42とを有する。
 光源制御部41は、照明制御部34aの制御のもと、光源44の照明光の照明処理を制御する。照明部42の光源ドライバ43は、光源制御部41の制御のもと、光源44に所定の電力を供給する。照明部42の光源44は、内視鏡2に供給する照明光として、複数の波長帯域(色)の光を発する。光源44は、例えば、赤色LED、緑色LED、青色LED等の光源と集光レンズなどの光学系とを用いて構成され、R、GおよびBの波長帯域(例えば、R:600nm~700nm、G:500nm~600nm、B:400nm~500nm)の光を発する。光源44から発せられた光は、ライトガイドケーブル23cによって、コネクタ23bおよびユニバーサルコード23を経由し、挿入部21の先端部21aの照明レンズ21eを介して照明窓21fから被写体に照明される。なお、照明窓21f近傍には、撮像素子25が配置される。また、光源44は、白色光LEDと、R光、G光およびB光それぞれの波長帯域を有する光を透過させる赤色フィルタ、緑色フィルタおよび青色フィルタを有する回転フィルタとの組み合わせであってもよい。
 図3は、処理装置3において1フレーム分のRGB画像信号が生成されるまでの処理の処理手順を示すフローチャートである。図3に示すように、まず、調光部33から制御部34の照明制御部34aに、次に照射させる照明光の調光条件が入力される調光条件入力処理が行なわれる(ステップS1)。照明制御部34aは、入力された調光条件にしたがって、次に照射させる照明光の照明条件を設定し、設定した照明条件で光源装置4に照明光を照明させる照明制御処理を行う(ステップS2)。照明制御部34aは、いずれの色の照明光も照明強度は一定とした上で、次に照射させる照明光の色と照明期間とを設定する。これとともに、制御部34は、内視鏡2の撮像素子25に対して、露光および画像信号の読み出しを行う画像信号読み出し処理を先頭の水平ラインから順次実行させる画像信号読み出し処理を行う(ステップS3)。
 画像処理部31の色成分演算部31aが、撮像素子25から出力された画像信号を含む連続する複数のフレームの画像信号の出力値を用いて、各色成分信号を水平ラインごとに演算する色成分演算処理を行う(ステップS4)。色成分演算部31aは、全水平ラインに対して各色成分信号を演算し、フレーム単位で各色成分信号を出力する。その後、画像処理部31は、色成分演算部31aが出力した各色成分信号に対し、ゲイン調整処理、ホワイトバランス調整処理、同時化処理を行って、1フレームのRGB画像信号を生成する画像信号処理を行う(ステップS5)。なお、画像処理部31は、ステップS5において、オプティカルブラック減算処理、エッジ強調処理等の画像信号処理を行う場合もある。
 次に図4を参照して、図3に示す各処理について説明する。図4は、図2に示す撮像素子25における露光、読み出しタイミングを示すタイミングチャートである。図4には、撮像素子25の露光、読み出しタイミング(図4の(1)に対応して撮像素子25から読み出される画像信号(図4の(2))、該画像信号を基に生成されるR,G,B画像信号(図4の(3)~(5))についても示している。なお、図4の(3)~(5)においては、各色成分の画像信号の生成のために使用する画像信号の説明の容易化のために、各色成分の画像信号の生成タイミングを実際のタイミングから移動させた状態で示している。
 照明制御部34aは、ステップS1において入力された調光条件を基に、光源装置4に対し、R光、G光、B光のうちの1色の光を1ライン露光期間内の1ライン露光期間以下の期間で照明させる照明処理を順次実行させる照明制御処理を行う(ステップS2)。照明制御部34aは、いずれの色の光についても、撮像素子25における各フレームの1ライン露光期間の終了タイミングと同じタイミングで消灯させる。照明制御部34aは、照明開始時間については、調光条件に従い各1ライン露光期間内で調整する。図4の例では、照明制御部34aは、光源装置4に、1ライン露光期間ごとに、G光、B光、R光の順で順次照明させ、いずれの光も各フレームの1ライン露光期間の終了時間で消灯させる。
 具体的には、フレーム1の1ライン露光期間(時間T~T)では、期間Lg1がG光の照明期間となり、フレーム2の1ライン露光期間(時間T~T)では、期間Lb2がB光の照明期間となり、フレーム3の1ライン露光期間(時間T~T)では、期間Lr3がR光の照明期間となり、フレーム4の1ライン露光期間(時間T~T)では、期間Lg4がG光の照明期間となり、フレーム5の1ライン露光期間(時間T~T)では、期間Lb5がB光の照明期間とされる。光源装置4は、いずれのフレームにおいても、各フレームの1ライン露光期間の終了時間T,T,T,T,Tで、各光を消灯する。
 次に、図3の画像信号読み出し処理(ステップS3)について説明する。本内視鏡システム1では、撮像素子25として、水平ラインごとに露光および読み出しのタイミングを変えるローリングシャッタ方式を適用するCMOS撮像素子を採用しており、水平ラインごとにタイミングを時間方向にシフトさせながら、露光および読み出しを行う。
 具体的には、図4の(1)の例では、フレーム1では、先頭の水平ライン1については、時間T~Tまで露光されてから時間Tで画素信号が読み出される。以降の水平ラインの画素については、水平ラインごとにタイミングを時間方向にシフトさせながら、露光および読み出しが行われる。したがって、フレーム1では、時間T~Tの間に先頭から順に各水平ラインの画素信号が読み出されることによって、フレーム1の画像信号Fが出力される(図4の(2)参照)。フレーム2では、時間T~Tの間に各水平ラインの画素信号が順に読み出されることによって、フレーム2の画像信号Fが出力される。同様に、フレーム3では、時間T~Tの間の読み出し処理によってフレーム3の画像信号Fが出力され、フレーム4では、時間T~Tの間の読み出し処理によってフレーム4の画像信号Fが出力され、フレーム5では、時間T~Tの間の読み出し処理によってフレーム5の画像信号Fが出力される。
 このように、撮像素子25においては、水平ラインごとに露光および読み出しのタイミングが異なるため、各フレームの画像信号F~Fの各出力値は、水平ラインによって、照明される光の色、照明回数、および、照明期間が異なり、複数の色の光の露光に対応した値となっている。また、R,G,B光は、各フレームの1ライン露光期間ごとに1色ずつ順次照明されるように制御されるため、各R,B,G光の露光期間は、連続する3フレームに渡って分散している。そこで、図3の色成分演算処理(ステップS4)においては、色成分演算部31aは、水平ラインごとに、連続する3フレームの各フレームにおける1ライン露光期間あたりの各色の照明期間と、各フレームにおける演算対象の水平ラインへの各色の露光期間との関係を勘案しながら、撮像素子25から画像信号が出力された最新のフレームを含む連続する3フレーム分の画像信号から取得対象の色成分の信号を抽出することによって、取得対象の色成分の信号を求めている。なお、被写体は動作していない前提である。また、色成分演算部31aが演算で使用する複数のフレームの画像信号は、メモリ31bに一時的に保持されている。
 実施の形態1では、連続するフレーム(k-3)~(k-1)における水平ラインnの出力画像信号F(k-3)n,F(k-2)n,F(k-1)nの値と、連続するフレーム(k-3)~(k-1)の各1ライン露光期間における各色の照明期間およびフレーム(k-3)~(k-1)における水平ラインnへの各色の露光期間とに基づく行列Aと、演算上のフレームkの水平ラインnのR画像信号Fkn(R),G画像信号Fkn(G),B画像信号Fkn(B)との関係を示す3元一次連立方程式((1)式)が成立する。
Figure JPOXMLDOC01-appb-M000001
 このため、演算上のフレームkの水平ラインnのR画像信号Fkn(R),G画像信号Fkn(G),B画像信号Fkn(B)を求めるためには、(1)式を変形した(2)式の逆行列A -1を求めて、(2)式を解けばよい。すなわち、色成分演算部31aは、撮像素子25から画像信号が出力された最新のフレームと、該フレームの1つ前のフレームおよび2つ前のフレームとにおける画像信号の出力値のうち、演算対象であるラインと同ラインの出力値を(2)式に適用して、演算対象のラインにおける各色成分信号を演算する。
Figure JPOXMLDOC01-appb-M000002
 例えば、4フレーム目の水平ラインnのR画像信号F4n(R)、G画像信号F4n(G)、B画像信号F4n(B)については、以下の(3)式に、フレーム1~3の画像信号F1n,F2n,F3nにおける水平ラインnの出力値を入力して求める(矢印Y1参照)。(3)式では、連続するフレーム2,3のそれぞれの1ライン露光期間におけるB,R光の照明期間Lb2,Lr3と、フレーム1~3における水平ラインnへのG光の露光期間g,g、B光の露光期間b,bおよびR色の露光期間r,rと、が行列Aのパラメータとなる。
Figure JPOXMLDOC01-appb-M000003
 色成分演算部31aは、水平ラインnに対応するR色の露光期間r,r、G光の露光期間g,g、B光の露光期間b,bを行列Aのパラメータとして適用し、画像信号F3n,F2n,F1nの水平ラインnの出力値を入力した(3)式を解く演算処理を行う。この結果、色成分演算部31aは、4フレーム目の水平ラインnに対応する照明期間Lr3にR光で露光された場合の画像信号に対応するR画像信号F4n(R)、期間(g+g)にG光で露光された場合の画像信号に対応するG画像信号F4n(G)、照明期間Lb2にB光で露光された場合の画像信号に対応するB画像信号F4n(B)を生成することができる。色成分演算部31aは、各水平ラインに対応するパラメータを行列Aのパラメータとして用い、演算対象の水平ラインnの画像信号F3n,F2n,F1nの出力値を入力した(3)式を解く演算処理を、先頭の水平ライン1から最終の水平ラインNまでそれぞれ順次行う。この結果、4フレーム目のR画像信号F4(R)、G画像信号F4(G)、B画像信号F4(B)をフレーム単位で取得することができる。以下、(3)式における行列Aの1行目の成分から成る行ベクトル(r/Lr3,g/(g+g),0)をRa、2行目の成分から成る行ベクトル(r/Lr3,0,b/Lb2)をRb、3行目の成分から成る行ベクトル(0,g/(g+g),b/Lb2)をRcという。
 5フレーム目の水平ラインnのR画像信号F5n(R)、G画像信号F5n(G)、B画像信号F5n(B)については、以下の(4)式に、フレーム2~4の画像信号F2n,F3n,F4nにおける水平ラインnの出力値を入力して求める(矢印Y2参照)。(4)式では、連続するフレーム3,4のそれぞれの1ライン露光期間におけるR,G光の照明期間Lr3,Lg4、およびフレーム2~4における水平ラインnへのR色の露光期間r,r、G光の露光期間g,g、B光の露光期間b,bが行列Aのパラメータとなる。
Figure JPOXMLDOC01-appb-M000004
 色成分演算部31aは、水平ラインnに対応するR色の露光期間r,r、G光の露光期間g,g、B光の露光期間b,bを行列Aのパラメータとして適用し、画像信号F4n,F3n,F2nの水平ラインnの出力値を入力した(4)式を解く演算処理を行う。この結果、色成分演算部31aは、5フレーム目の水平ラインnに対応する照明期間Lr3にR光で露光された場合の画像信号に対応するR画像信号F5n(R)、照明期間Lg4にG光で露光された場合の画像信号に対応するG画像信号F5n(G)、期間(b+b)にB光で露光された場合の画像信号に対応するB画像信号F5n(B)を生成することができる。色成分演算部31aは、各水平ラインに対応するパラメータを行列Aのパラメータとして用い、演算対象の水平ラインの画像信号F4n,F3n,F2nの出力値を入力した(4)式を解く演算処理を、先頭の水平ライン1から最終の水平ラインNまでそれぞれ順次行う。この結果、5フレーム目のR画像信号F5(R)、G画像信号F5(G)、B画像信号F5(B)をフレーム単位で取得することができる。
 6フレーム目の水平ラインnのR画像信号F6n(R)、G画像信号F6n(G)、B画像信号F6n(B)については、以下の(5)式に、フレーム3~5の画像信号F3n,F4n,F5nにおける水平ラインnの出力値を入力して求める(矢印Y3参照)。(5)式では、連続するフレーム4,5のそれぞれの1ライン露光期間におけるG,B光の照明期間Lg4,Lb5、およびフレーム3~5における水平ラインnへのR色の露光期間r,r、G光の露光期間g,g、B光の露光期間b,bが行列Aのパラメータとなる。
Figure JPOXMLDOC01-appb-M000005
 色成分演算部31aは、水平ラインnに対応するR光の露光期間r,r、G光の露光期間g,g、B光の露光期間b,bを行列Aのパラメータとして適用し、画像信号F5n,F4n,F3nの水平ラインnの出力値を入力した(5)式を解く演算処理を行う。この結果、色成分演算部31aは、6フレーム目の水平ラインnに対応する照明期間(r+r)にR光で露光された場合の画像信号に対応するR画像信号F6n(R)、照明期間Lg4にG光で露光された場合の画像信号に対応するG画像信号F6n(G)、照明期間Lb5にB光で露光された場合の画像信号に対応するB画像信号F6n(B)を生成することができる。色成分演算部31aは、各水平ラインに対応するパラメータを行列Aのパラメータとして用い、演算対象の水平ラインの画像信号F5n,F4n,F3nの出力値を入力した(5)式を解く演算処理を、先頭の水平ライン1から最終の水平ラインNまでそれぞれ順次行う。この結果、6フレーム目のR画像信号F6(R)、G画像信号F6(G)、B画像信号F6(B)をフレーム単位で取得することができる。
 7フレーム以降についても、3フレーム単位で(3)式~(5)式を順次用いて各水平ラインnの各色成分の画像信号を演算すればよい。(3)式~(5)式の行列Aについては、各パラメータのフレーム番号を3ずつ加算し、各水平ラインnごとに行列Aの逆行列A -1を演算して、水平ラインnごとに各色成分の画像信号を取得する。
 なお、本実施の形態1で用いる関係式中の行列Aの階数について説明する。図5は、本実施の形態1で求める画像信号の解の一意性を説明する図であり、(3)式の行ベクトルRa,Rb,RcをR,G,B空間で見た場合を示す図である。行ベクトルRaは、R-G平面上のベクトルであって、水平ライン1に対応する位置Ra1から、ライン番号が進むにしたがって位置Rc1に向かって進む軌跡PRaを描く。行ベクトルRbは、B-R平面上のベクトルであって、水平ライン1に対応する位置Rb1から、ライン番号が進むにしたがって位置Ra1に向かって進む軌跡PRbを描く。行ベクトルRcは、G-B平面上のベクトルであって、水平ライン1に対応する位置Rc1から、ライン番号が進むにしたがって位置Rb1に向かって進む軌跡PRcを描く。これらの行ベクトルRa,Rb,Rcは、図5のように、R-G平面、B-R平面、G-B平面の各平面上でそれぞれ異なる軌跡PRa,PRb,PRcを描く関係であるため、いずれの行ベクトルRa~Rcについても2つの行ベクトルが同時にR,G,B軸上で重複することもない。
 したがって、行ベクトルRa~Rcは常に一次独立であるため、行列Aは、階数(ランク)3となり、(3)式の解は一意に定まる。したがって、R,G,Bの照明期間が同一である場合、異なる場合のいずれにおいても、(3)式の解は必ず一意に定まるため、各R画像信号F4n(R)、G画像信号F4n(G)、B画像信号F4n(B)の値を演算において求めることができる。(4)式、(5)式も同様であるため、いずれのフレームの色成分信号についても一意に求めることができる。
 上述の色成分演算処理(ステップS4)では、1フレームでR,G,B画像信号のいずれもが色成分信号として演算され、画像信号処理(ステップS5)では、これらのR,G,B画像信号に対して所定の画像信号処理が実行される。このうち同時化処理において、同時化部31eは、このR,G,B画像信号のうち、演算で使用した連続する3フレームのうちの最後のフレームの読み出し期間に最も近い露光期間で露光される色の画像信号を採用する。そして、3フレーム単位で、各フレームで1色ずつ採用された画像信号をもとに同時化処理を行う。例えば、4フレーム目では、フレーム3における読み出し期間T~Tに最も近い露光期間Lr3に対応するR画像信号F4(R)を採用し、5フレーム目では、フレーム4における読み出し期間T~Tに最も近い露光期間Lg4に対応するG画像信号F5(G)を採用し、6フレーム目では、フレーム5における読み出し期間T~Tに最も近い露光期間Lb5に対応するB画像信号F6(B)を採用し、採用したR画像信号F4(R)、G画像信号F5(G)、B画像信号F6(B)を用いて、同時化処理を行ってRGB画像信号を生成する。もちろん、同時化部31eは、同フレームのR,G,B画像信号を用いて同時化処理を行い、1フレームごとにRGB画像信号を生成してもよい。
 このように、実施の形態1では、処理装置3における色成分演算部31aにおいて、複数の連続したフレームの画像信号の出力値を用いた演算によって、取得対象のフレームの各色成分の画像信号を水平ラインごとに抽出している。したがって、実施の形態1によれば、各照明光の露光期間を1ライン露光期間の中で自由に設定することができるため、全画素に対して十分な露光期間を確保でき、撮像素子25の感度を維持できる。また、本実施の形態1では、色成分演算部31aが演算処理によって取得対象のフレームの各色成分の画像信号を抽出していることから、全ての水平ラインで共通して露光させる期間(Vブランク期間)を設けずともよいため、信号伝送用の期間も十分に確保できる。したがって、実施の形態1によれば、ケーブルの伝送負担を抑制しながら全画素に対して十分な露光期間が確保できる。
(実施の形態1の変形例1)
 実施の形態1は、R,G,Bの3色の照明光を順次切り替える面順次方式に限らず、例えば血液中のヘモグロビンに吸収されやすくなるように狭帯域化された青色光および緑色光の2種の帯域のNBI(Narrow Band Imaging)照明光を用いて観察するNBI観察方式にも適用可能である。NBI観察方式の場合には、光源装置4は、照明制御部34aの制御に従い、狭帯域化された青色光(V光)と狭帯域化されたG光を順次切り替えて照射する。V光の波長帯域は、例えば、波長390~470nmである。
 図6は、NBI観察方式の場合における、撮像素子25における露光、読み出しタイミングを示すタイミングチャートである。図6には、撮像素子25の露光、読み出しタイミング(図6の(1))に対応して撮像素子25から読み出される画像信号(図6の(2))、該画像信号を基に生成されるV、G画像信号等(図6の(3)~(5))についても示している。なお、図6の(3)~(5)においては、各色成分の画像信号の生成のために使用する画像信号の説明の容易化のために、各色成分の画像信号の生成タイミングを実際のタイミングから移動させた状態で示している。なお、この場合においても、処理装置3は、図3に示す各処理とほぼ同様の処理を行うことによって1フレーム分のV画像信号およびG画像信号を生成する。
 まず、照明制御部34aは、調光条件入力処理(図3のステップS1)において入力された調光条件を基に、照明制御処理を行う(ステップS2)。NBI観察方式では、照射光は、V光、G光の2色となるため、演算処理で使用する行列式のランクを3に保持するために光を発光しない無光フレームを設定する。具体的には、照明制御部34aは、光源装置4に、フレーム1の1ライン露光期間においてV光を照射させ、フレーム2の1ライン露光期間においてG光を照射させ、次のフレーム3の1ライン露光期間では発光なしの無光フレームとする。そして、連続する3フレームにおいても、照明制御部34aは、V光照射(フレーム4)、G光照射(フレーム5)、発光なし(フレーム6)とし、3フレーム単位でこの照明制御を繰り返す。
 続いて、色成分演算部31aは、画像信号読み出し処理(ステップS3)で読み出された連続する3つのフレームの画像信号と上述の(3)~(5)式のいずれかのうち対応する演算式を用いて、V画像信号およびG画像信号を水平ラインごとに生成する(ステップS4)。色成分演算部31aは、例えば、4フレーム目のV画像信号F4v(V)、G画像信号F4v(G)を生成する場合には、水平ラインnごとに、連続する3つのフレーム画像信号F~F(図6の(2)参照)の水平ラインnの出力値を(3)式に入力する。この場合、水平ラインnにおいては、連続するフレーム1~3のそれぞれの1ライン露光期間におけるV,B光の照明期間Lv1,Lg2、およびフレーム1~3における水平ラインnへのV光の露光期間v,v、G光の露光期間g,gに加え、発光のないフレーム3における見かけ上の照明期間Lo3と露光期間O,Oとが、(3)式の行列Aのパラメータとなる。
 そして、色成分演算部31aは、(3)式を解くことによって、4フレーム目の水平ラインnに対応する期間(v+v)にV光で露光された場合の画像信号に対応するV画像信号F4vn(V)(図6の(3))、照明期間Lg2にG光で露光された場合の画像信号に対応するG画像信号F4vn(G)(図6の(4))を生成する。なお、演算上、見かけ上の照明期間LO3に対応する無照明時画像信号F4vn(O)も生成される(図6の(5))。色成分演算部31aは、各水平ラインに対応するパラメータを行列Aのパラメータとして用い、演算対象の水平ラインの画像信号F3n,F2n,F1nの出力値を入力した(3)式を解く演算処理を、先頭の水平ライン1から最終の水平ラインNまでそれぞれ順次行う。この結果、4フレーム目のV画像信号F4V(V)、G画像信号F4V(G)、無照明時画像信号F4v(O)をフレーム単位で取得することができる。続いて、画像処理部31は、色成分演算部31aが演算した各V画像信号F4v(V)、G画像信号F4v(G)に対し、ゲイン調整処理等を含む画像信号処理(ステップS5)を行い、NBI画像信号を生成する。ここで、この無光フレームを設定した場合には、調光を行う必要がなくなるため、調光せずに常時最長の照射時間でV光、G光を照射できることから、計算誤差を低減でき、残像の影響も少なくできるものと考えられる。
 また、図7は、NBI観察方式の場合における、撮像素子25における他の露光、読み出しタイミングを示すタイミングチャートである。照明制御部34aは、光源装置4に、図7の(1)に示すように、図6では無光フレームとしたフレーム3,6に、第2のV光(VV光)を照射させてもよい。この場合、4フレーム目の水平ラインnについては、連続するフレーム1~3のそれぞれの1ライン露光期間におけるV,G,VV光の照明期間Lv1,Lg2,Lvv3、およびフレーム1~3における水平ラインnへのV光の露光期間v,v、G光の露光期間g,g、VV光の露光期間vv,vvが(3)式の行列Aのパラメータとなる。色成分演算部31aは、フレーム画像信号F~F(図7の(2)参照)の水平ラインnの出力値を(3)式に入力し、解くことによって、4フレーム目の水平ラインnにおける、V画像信号F4vvn(V)(図7の(3))、G画像信号F4vvn(G)(図7の(4))に加え、照明期間Lvv3にVV光で露光された場合の画像信号に対応するVV画像信号F4vvn(VV)(図7の(5))を生成することができる。色成分演算部31aは、各水平ラインnに対応するパラメータを行列Aのパラメータとし、演算対象の水平ラインnの画像信号F3n,F2n,F1nの出力値を入力した(3)式を解く演算処理を、先頭の水平ライン1から最終の水平ラインNまで順次行うことによって、4フレーム目のV画像信号F4vv(V)、G画像信号F4vv(G)、VV画像信号F4vv(VV)をフレーム単位で取得する。V光は感度が十分確保できないため、この場合には、V光照明を2回行って、2枚のV光画像信号を用いることによって、V光画像信号とG光画像信号との感度的なバランスを取っている。なお、3フレーム中、V光を2回照明するほか、G光を2回照明することももちろん可能である。
(実施の形態1の変形例2)
 また、実施の形態1は、撮像素子25がグローバルシャッタ方式を採用するCCD撮像素子である場合にも適用可能である。図8は、撮像素子25がCCD撮像素子である場合の露光、読み出しタイミングを示すタイミングチャートである。
 図8の(1)に示すように、照明制御部34aは、光源装置4に、G光、B光、R光の順に順次照明光を照射させる。撮像素子25からは、フレーム1の画像信号Fが、全水平ラインいずれについても、各B光照射期間Lb2内における時間Tにおいて読み出される。同様に、撮像素子25からは、R光照射期間Lr3、G光照射期間Lg4の期間内の時間T,Tにおいて、フレーム2,3の画像信号F,Fが読み出される。色成分演算部31aが4フレーム目のR画像信号F4c(R)、G画像信号F4c(G)、B画像信号F4c(B)を生成する場合には、水平ラインごとに、連続する3つのフレームの画像信号F~F(図8の(2)参照)のうち演算対象である水平ラインの出力値を入力して(3)式を解く演算処理を、先頭の水平ライン1から最終の水平ラインNまでそれぞれ順次行う。この場合には、実施の形態1と同様に、水平ラインnにおいては、連続するフレーム1~3のそれぞれの1ライン露光期間におけるR,B光の照明期間Lr3,Lb2、およびフレーム1~3における水平ラインnへのR光の露光期間r,r、G光の露光期間g,g、B光の露光期間b,bが(3)式の行列Aのパラメータとなる。
(実施の形態2)
 次に、実施の形態2について説明する。実施の形態2では、1つの1ライン露光期間に3色のうちの2色の照明光を照明させた場合について説明する。
 図9は、実施の形態2にかかる内視鏡システムの構成を模式的に示すブロック図である。図9に示すように、実施の形態2にかかる内視鏡システム201は、図2に示す処理装置3に代えて処理装置203を有する。処理装置203は、照明制御部234aを有する制御部234とを備える。照明制御部234aは、光源装置4に対し、1つの1ライン露光期間にR,G,Bの3色のうちの2色の照明光を照明させる。照明制御部234aは、連続する3つの1ライン露光期間においていずれの色の照明光も同回数照明されるように光源装置4に照明処理を行わせる。照明制御部234aは、光源装置4に対し、同一の1ライン露光期間において照明させる2色の照明光の照明期間が少なくとも一部で重複する状態で照明させる。
 また、記憶部36は、照明期間テーブル236a(照明期間情報)を記憶する。照明期間テーブル236aは、色成分演算部31aが用いる所定の関係式の解が一意に定まる各色の照明光の照明期間の組み合わせが複数示されたテーブルである。照明制御部234aは、光源装置4に対する照明期間テーブル236aで示された各色の照明光の照明期間の組み合わせのうち、調光部33が求めた各色の照明光の照明期間に最も近い組み合わせの照明期間で各色の照明光を照明させる。
 図10は、処理装置203において1フレーム分のRGB画像信号が生成されるまでの処理の処理手順を示すフローチャートである。照明制御部234aは、前フレームの照明期間を取得する前フレーム照明期間取得処理を行う(ステップS11)。ステップS11では、照明制御部234aは、1フレーム過去の2光の各照明期間を取得する。ステップS12は、図3に示すステップS1である。照明制御部234aは、記憶部36の照明期間テーブル236aを参照する照明期間テーブル参照処理を行う(ステップS13)。照明制御部234aは、ステップS11において取得した前フレームの照明期間も勘案して、照明期間テーブル236aで示された各色の照明光の照明期間の組み合わせのうち、調光部33が求めた各色の照明光の照明期間に最も近い組み合わせの照明期間で次に照明する各色の照明期間を設定する照明期間設定処理を行う(ステップS14)。照明制御部234aは、設定した照明期間で光源装置4に各照明光を照明させる照明制御処理を行う(ステップS15)。ステップS16~ステップS18は、図3に示すステップS3~ステップS5である。
 次に図11を参照して、図10に示す一部の処理について説明する。図11は、図9に示す撮像素子25における露光、読み出しタイミングを示すタイミングチャートである。図11には、撮像素子25の露光、読み出しタイミング(図11の(1))に対応して撮像素子25から読み出される画像信号(図11の(2))、該画像信号を基に生成されるR,G,B画像信号(図11の(3)~(5))についても示している。なお、図11の(3)~(5)においては、各色成分の画像信号の生成のために使用する画像信号の説明の容易化のために、各色成分の画像信号の生成タイミングを実際のタイミングから移動させた状態で示している。
 照明制御部234aは、ステップS13において設定した照明期間で、光源装置4に対し、1つの1ライン露光期間にR,G,Bの3色のうちの2色の照明光を照明させる照明期間設定処理(ステップS14)を、連続する3つの1ライン露光期間においていずれの色の照明光も同回数照明されるように実行させる。さらに、照明制御部234aは、光源装置4に対し、同一の1ライン露光期間において照明させる2色の照明光の照明期間が少なくとも一部で重複する状態で照明させる。そして、照明制御部234aは、光源装置4に対し、実施の形態1と同様に、いずれの光も各フレームの1ライン露光期間の終了時間T,T,T,T,Tで消灯させる。
 具体的には、フレーム1の1ライン露光期間では、第1光のB光が照明期間Lb1で照射されるとともに第2光のR光が照明期間Lr1で照明され、フレーム2の1ライン露光期間では、第1光のG光が照明期間Lg2で照射されるとともに第2光のB光が照明期間Lb2で照明され、フレーム3の1ライン露光期間では、第1光のR光が照明期間Lr3で照射されるとともに第2光のG光が照明期間Lg3で照明される。以降のフレームについても、連続する3つのフレームにおいていずれの色の照明光も、同回数照明されるとともに、同一の1ライン露光期間において照明させる2色の照明光の照明期間が少なくとも一部で重複する状態で照明される。
 ステップS16における画像信号読み出し処理で読み出されるフレームの画像信号F~Fの各出力値は、水平ラインによって、照明光の色や数、照明回数、および、照明期間が異なり、複数の色の光の露光に対応した値となっている。実施の形態2では、連続するフレーム(k-3)~(k-1)における水平ラインnの出力画像信号F(k-3)n,F(k-2)n,F(k-1)nの値と、連続するフレーム(k-3)~(k-1)の各1ライン露光期間における第1光、第2光の各照明期間およびフレーム(k-3)~(k-1)における水平ラインnへの第1光および第2光の各露光期間とに基づく行列Aと、フレームkの水平ラインnのR画像信号Fkn(R),G画像信号Fkn(G),B画像信号Fkn(B)との関係を示す3元一次連立方程式が成立する((1)式)。色成分演算部31aは、水平ラインnごとに、実施の形態2に対応する行列Aの逆行列A -1を求めて(2)式を解き、フレームkの水平ラインnのR画像信号Fkn(R),G画像信号Fkn(G),B画像信号Fkn(B)を求める。
 実施の形態2では、連続するフレーム(k-3)~(k-1)の各1ライン露光期間における第1光、第2光の照明期間およびフレーム(k-3)~(k-1)における水平ラインnへの第1光および第2光の各露光期間が行列Aのパラメータとなる。例えば、4フレーム目の水平ラインnのR画像信号F4n(R)、G画像信号F4n(G)、B画像信号F4n(B)については、以下の(6)式に、フレーム1~3における水平ラインnの画像信号F1n,F2n,F3nの出力値を入力して求める。
Figure JPOXMLDOC01-appb-M000006
 (6)式では、連続するフレーム1,2,3の第1光のB,G,R光の各照明期間Lb1,Lg2,Lr3、第2光のR,B,G光の各照明期間Lr1,Lb2,Lg3、フレーム1~3における水平ラインnへの第1光のB光に対する露光期間b,b、第1光のG光に対する露光期間g,g、第1光のR光に対する露光期間r,r、第2光のR光に対する露光期間R,R、第2光のB光に対する露光期間B,B、および、第2光のG光に対する露光期間G,Gが4フレーム目の演算式中の行列Aのパラメータとなる。以下、(6)式における行列Aの1行目の分子成分から成る行ベクトル(r+R,G,b)をSa、2行目の分子成分から成る行ベクトル(r,g+G,B)をSb、3行目の分子成分から成る行ベクトル(R,g,b+B)をScという。
 色成分演算部31aは、水平ラインnに対応する各第1色および第2色の照明期間および露光時間を行列Aのパラメータとして適用し、画像信号F3n,F2n,F1nの水平ラインnの出力値を入力した(6)式を解く演算処理を行う。この結果、色成分演算部31aは、4フレーム目の水平ラインnに対応する、期間(R+Lr3+R)にR光で露光された場合の画像信号に対応するR画像信号F4n(R)、期間(Lg2+Lg3)にG光で露光された場合の画像信号に対応するG画像信号F4n(G)、期間(b+Lb2+b)にB光で露光された場合の画像信号に対応するB画像信号F4n(B)を生成することができる。色成分演算部31aは、各水平ラインnに対応するパラメータを行列Aのパラメータとして用い、演算対象の水平ラインnの画像信号F3n,F2n,F1nの出力値を入力した(6)式を解く演算処理を、先頭の水平ライン1から最終の水平ラインNまでそれぞれ順次行う。この結果、色成分演算部31aは、4フレーム目のR画像信号F4(R)、G画像信号F4(G)、B画像信号F4(B)をフレーム単位で取得することができる。5フレーム目についても、同様に、(6)式の行列Aにそれぞれ対応するパラメータを適用し、水平ラインnごとに行列Aの逆行列A -1を演算して、水平ラインnごとに各色成分の画像信号(R画像信号F5n(R)、G画像信号F5n(G)、B画像信号F5(B))を生成し、5フレーム目のR画像信号F5(R)、G画像信号F5(G)、B画像信号F5(B)をフレーム単位で取得する。6フレーム目についても同様である。
 次に、(6)式中の行列Aの階数について説明する。(6)式の行列Aは、以下の(7)式のように分解できる。
Figure JPOXMLDOC01-appb-M000007
 (7)式のように、行列Aは、第1光による各露光時間r,r,g,g,b,bがパラメータとなる行列A4-1、第2光による各露光時間R,R,G,G,B,Bがパラメータとなる行列A4-2、第1光の照射期間と第2光の照射期間との和の逆数がパラメータとなる行列A4-3に分解できる。このうち、行列A4-3は、対角行列であるため、ランク3であり、逆行列が存在する。このため、(6)式の解が一意に決まるためには、行列A4-1と行列A4-2の加算後の行列がランク3であればよい。以下、(7)式における行列A4-1の1行目の成分から成る行ベクトル(r,0,b)をSaa、2行目の成分から成る行ベクトル(r,g,0)をSba、3行目の成分から成る行ベクトル(0,g,b)をScaという。(7)式における行列A4-2の1行目の成分から成る行ベクトル(R,G,0)をSab、2行目の成分から成る行ベクトル(0,G,B)をSbb、3行目の成分から成る行ベクトル(R,0,B)をScbという。
 図12は、本実施の形態2で求める画像信号の解の一意性を説明する図であり、行列A4-1の行ベクトルSaa,Sba,Scaと、行列A4-2の行ベクトルSab,Sbb,ScbをR,G,B空間で見た場合を示す図である。図12では、いずれの色の照明期間も全て同期間であって、調光を行わない場合について示す。この場合、行ベクトルSaaと行ベクトルScbは、R-B平面上で同一の軌跡PSaa,PScbを描く。また、行ベクトルSbaと行ベクトルSabは、R-G平面上で同一の軌跡PSba,PSabを描き、行ベクトルScaと行ベクトルSbbは、G-B平面上で同一の軌跡PSca,PSbbを描く。このため、最終的に、(6)式における行ベクトルSaは、点Pを起点とし点Pを終点とする軌跡PSaをたどり、行ベクトルSbは、点Pを起点とし点Pを終点とする軌跡PSbをたどり、行ベクトルScは、点Pを起点とし点Pを終点とする軌跡PScをたどる。したがって、行ベクトルSa~Scは常に一次独立となり、行列Aはランク3となるため、(6)式における行列Aの逆行列A -1は存在し、(6)式の解は一意に定まる。
 図13は、本実施の形態2で求める画像信号の解の一意性を説明する図であり、行列A4-1の行ベクトルSaa,Sba,Scaと、行列A4-2の行ベクトルSab,Sbb,ScbをR,G,B空間で見た場合の他の例を示す図である。図13では、各色の照明期間のうち、フレーム3の第2光であるG光の照明期間Lg3以外の各色の照明期間は全て同期間であって、他の照明期間よりも照明期間Lg3のみが長く調光した場合について示す。
 この場合、行ベクトルSbaと行ベクトルSabは、R-B平面上で異なる軌跡PSba,PSabを描くものの、終点は一致している。また、行ベクトルScaと行ベクトルSbbは、G-B平面上で異なる軌跡PSca,PSbbを描くものの、起点は一致している。したがって、最終的に(6)式における行ベクトルSaの軌跡Psaにおける起点と行ベクトルSbの軌跡Psbにおける終点とが、図12の場合と比して、照明期間Lg3に対応する点Pとなるのみで、行ベクトルSa~Scは常に一次独立となり、行列Aはランク3となるため、調光を行った場合であっても、(6)式における行列Aの逆行列A -1は存在し、(6)式の解は一意に定まる。したがって、R,G,Bに対する調光の有無によらず、(6)式の解は、必ず一意に定まるため、各R画像信号F4n(R)、G画像信号F4n(G)、B画像信号F4n(B)の値を演算において求めることができる。なお、実施の形態2では、色成分演算部31aが用いる関係式((6)式)の解が一意に定まる各色の照明光の照明期間の組み合わせの中から、調光条件に最も近い照明期間の組み合わせで各光を照明させることによって、色成分演算部31aによる演算の簡略化を図っている。
 上述の色成分演算処理(ステップS17)では、1フレームでR,G,B画像信号のいずれもが演算される。画像信号処理(ステップS18)では、同時化部31eは、このR,G,B画像信号のうち、演算で使用した連続する3フレームのうちの最後のフレームの読み出し期間に近い2つの期間で露光される色の画像信号が低残像となるため、同時化処理において採用する。例えば、4フレーム目では、フレーム3における読み出し期間T~Tに近い露光期間Lg3および露光期間Lg2の2つの期間に対応するG画像信号F4(G)を採用し、5フレーム目では、フレーム4における読み出し期間T~Tに最も近い露光期間Lr4および露光期間Lr3の2つの期間に対応するR画像信号F5(R)を採用し、6フレーム目では、フレーム5における読み出し期間T~Tに最も近い露光期間Lb5および露光期間Lb4に対応するB画像信号F6(B)を採用し、採用したR画像信号F4(R)、G画像信号F5(G)、B画像信号F6(B)を用いて、同時化を行い、RGB画像信号を生成する。
 この実施の形態2のように、1フレームで2色発光を行った場合も、複数の連続したフレームの画像信号の出力値を用いた演算処理において、取得対象のフレームの各色成分の画像信号を抽出しているため、実施の形態1と同様の効果を奏する。さらに、実施の形態2では、実施の形態1と比して、各色の照明頻度が多くなるため、被写体が動いた場合の残像を低減することができる。
 なお、実施の形態2は、実施の形態1と同様に、撮像素子25がグローバルシャッタ方式を採用するCCD撮像素子である場合にも適用可能である。図14は、撮像素子25がCCD撮像素子である場合の露光、読み出しタイミングを示すタイミングチャートである。照明制御部234aが、光源装置4に、図14の(1)に示す条件でG光、B光、R光を照射させ、例えば4フレーム目のR画像信号F4c(R)、G画像信号F4c(G)、B画像信号F4c(B)を生成する場合には、連続する3つのフレーム画像信号F~F(図14の(2)参照)の出力値を、水平ラインごとに、(6)式に入力して演算する。この場合も、CMOS撮像素子の場合と同様に、水平ラインnについては、連続するフレーム1~3の第1光のB,G,R光の各照明期間Lb1,Lg2,Lr3、第2光のR,B,G光の各照明期間Lr1,Lb2,Lg3、フレーム1~3における水平ラインnへの第1光のB光に対する露光期間b,b、第1光のG光に対する露光期間g,g、第1光のR光に対する露光期間r,r、第2光のR光に対する露光期間R,R、第2光のB光に対する露光期間B,B、および、第2光のG光に対する露光期間G,Gが(6)式の行列Aのパラメータとなる。
 また、本実施の形態2は、実施の形態1と同様に、NBI観察方式にも適用可能である。この場合には、照明制御部234aは、V光とG光と無光との組み合わせ、V光とG光とVV光との組み合わせ、或いは、V光とG光とGG光(2回目のG光)の組み合わせのいずれかのパターンを用いて、R,G,B光照射の条件と同様に、1つの1ライン露光期間に3色のうちの2色の照明光を照明させる照明処理を、連続する3つのフレーム期間においていずれの色の照明光も同回数照明されるように実行させればよい。また、実施の形態2では、同一の1ライン露光期間において照明させる2色の照明光の照明期間が少なくとも一部で重複する状態で照明させる場合を例に説明したが、行列Aがランク3となる条件であれば、同一の1ライン露光期間において照明させる2色の照明光の照明期間が重複していなくともよい。
(実施の形態3)
 次に、実施の形態3について説明する。実施の形態3では、1つの1ライン露光期間に3色全ての照明光を照明させた場合について説明する。
 図15は、実施の形態3にかかる内視鏡システムの構成を模式的に示すブロック図である。図15に示すように、実施の形態3にかかる内視鏡システム301は、図9に示す処理装置203に代えて処理装置303を有する。処理装置303は、照明制御部334aを有する制御部334を備える。照明制御部334aは、光源装置4に対し、1つの1ライン露光期間にR,G,Bの3色の全ての照明光をそれぞれ異なる照明期間で照明させる。照明制御部334aは、光源装置4に対し、同じ1ライン露光期間において照明される3色の照明光のいずれもが重複して照明される期間を含むように3色の照明光を照明させる。
 また、記憶部36は、実施の形態2と同様に、色成分演算部31aが用いる所定の関係式の解が一意に定まる各色の照明光の照明期間の組み合わせが複数示された照明期間テーブル336a(照明期間情報)を記憶する。照明制御部334aは、光源装置4に対する照明期間テーブル336aで示された各色の照明光の照明期間の組み合わせのうち、調光部33が求めた各色の照明光の照明期間に最も近い組み合わせの照明期間で各色の照明光を照明させる。
 図16は、処理装置303において1フレーム分のRGB画像信号が生成されるまでの処理の処理手順を示すフローチャートである。照明制御部334aは、前フレームの照明期間を取得する前フレーム照明期間取得処理を行う(ステップS21)。ステップS21では、照明制御部334aは、1フレーム過去の3光の各照明期間および2フレーム過去の3光の各照明期間を取得する。ステップS22は、図3に示すステップS1である。照明制御部334aは、記憶部36の照明期間テーブル336aを参照する照明期間テーブル参照処理を行う(ステップS23)。照明制御部334aは、ステップS21において取得した前フレームの照明期間も勘案して、照明期間テーブル336aで示された各色の照明光の照明期間の組み合わせのうち、調光部33が求めた各色の照明光の照明期間に最も近い組み合わせの照明期間で次に照明する各色の照明期間を設定する照明期間設定処理を行う(ステップS24)。照明制御部334aは、設定した照明期間で光源装置4に各照明光を照明させる照明制御処理を行う(ステップS25)。ステップS26~ステップS28は、図3に示すステップS3~ステップS5である。
 次に図17を参照して、図16に示す一部の処理について説明する。図17は、図15に示す撮像素子25における露光、読み出しタイミングを示すタイミングチャートである。図17には、撮像素子25の露光、読み出しタイミング(図17の(1))に対応して撮像素子25から読み出される画像信号(図17の(2))、該画像信号を基に生成されるR,G,B画像信号(図17の(3)~(5))についても示している。なお、図17の(3)~(5)においては、各色成分の画像信号の生成のために使用する画像信号の説明の容易化のために、各色成分の画像信号の生成タイミングを実際のタイミングから移動させた状態で示している。
 照明制御部334aは、ステップS23において設定した照明期間で、光源装置4に対し、1つの1ライン露光期間にR,G,Bの3色全ての照明光を照明させる照明処理(ステップS24)を、同じ1ライン露光期間における3色の照明期間がそれぞれ異なる期間で照明されるように実行させる。さらに、照明制御部334aは、光源装置4に対し、同一の1ライン露光期間において照明させる3色の照明光のいずれもが重複して照明される期間を含むように3色の照明光を照明させる。そして、照明制御部334aは、光源装置4に対し、実施の形態1と同様に、いずれの光も各フレームの1ライン露光期間の終了時間T,T,T,T,Tで消灯させる。
 具体的には、フレーム1の1ライン露光期間では、第1光のG光が照明期間Lg1で照射され、第2光のB光が照明期間Lb1(<Lg1)で照明され、第3光のR光が照明期間Lr1(<Lb1)で照明される。フレーム2の1ライン露光期間では、第1光のB光が照明期間Lb2で照射され、第2光のR光が照明期間Lr2(<Lb2)で照明され、第3光のG光が照明期間Lg2(<Lr2)で照明される。フレーム3の1ライン露光期間では、第1光のR光が照明期間Lr3で照射され、第2光のG光が照明期間Lg3(<Lr3)で照明され、第3光のB光が照明期間Lb3(<Lg3)で照明される。以降のフレームについても、同じ1ライン露光期間における3色の照明期間がそれぞれ異なる期間で照明されるとともに、同じ1ライン露光期間において照明される3色の照明光のいずれもが重複して照明される期間を含むように3色の照明光を照明させる。
 ステップS26における画像信号読み出し処理で読み出されるフレームの画像信号F~Fの各出力値は、水平ラインによって、照明光の色や数、照明回数、および、照明期間が異なり、複数の色の光の露光に対応した値となっている。実施の形態3では、連続するフレーム(k-3)~(k-1)における水平ラインnの出力画像信号F(k-3)n,F(k-2)n,F(k-1)nの値と、連続するフレーム(k-3)~(k-1)の各1ライン露光期間における第1光、第2光および第3光の各照明期間、並びに、フレーム(k-3)~(k-1)における水平ラインnへの第1光、第2光および第3光の各露光期間とに基づく行列Aと、フレームkの水平ラインnのR画像信号Fkn(R),G画像信号Fkn(G),B画像信号Fkn(B)との関係を示す3元一次連立方程式((1)式)が成立する。色成分演算部31aは、水平ラインごとに、実施の形態3に対応する行列Aの逆行列A -1を求めて(2)式を解き、フレームkの水平ラインnのR画像信号Fkn(R),G画像信号Fkn(G),B画像信号Fkn(B)を求める。
 実施の形態3では、連続するフレーム(k-3)~(k-1)の各1ライン露光期間における第1光、第2光および第3光の照明期間、並びに、フレーム(k-3)~(k-1)における水平ラインnへの第1光、第2光および第3光の各露光期間が行列Aのパラメータとなる。例えば、4フレーム目の水平ラインnのR画像信号F4n(R)、G画像信号F4n(G)、B画像信号F4n(B)については、以下の(8)式に、フレーム1~3の画像信号F1n,F2n,F3nにおける水平ラインnの出力値を入力して求める。
Figure JPOXMLDOC01-appb-M000008
 (8)式では、連続するフレーム1,2,3の第1光のG,B,R光の各照明期間Lg1,Lb2,Lr3、第2光のB,R,G光の各照明期間Lb1,Lr2,Lg3、第3光のR,G,B光の各照明期間Lr1,Lg2,Lb3、フレーム1~3における水平ラインnへの第1光のG光に対する露光期間g,g、第1光のB光に対する露光期間b,b、第1光のR光に対する露光期間r,r、第2光のB光に対する露光期間B,B、第2光のR光に対する露光期間R,R、第2光のG光に対する露光期間G,G、第3光のR光に対する露光期間r´,r´、第3光のG光に対する露光期間g´,g´、第3光のB光に対する露光期間b´,b´が、4フレーム目の演算式中の行列Aのパラメータとなる。以下、(8)式における行列Aの1行目の分子成分から成る行ベクトル(r+r´,g+G,B+b´)をQa、2行目の分子成分から成る行ベクトル(r+R,G+g´,b+b´)をQb、3行目の分子成分から成る行ベクトル(R+r´,g+g´,b+B)をQcという。
 色成分演算部31aは、水平ラインnに対応する各第1色、第2色および第3色の照明期間および露光時間を行列Aのパラメータとして適用し、画像信号F3n,F2n,F1nの水平ラインnの出力値を入力した(8)式を解く演算処理を行う。この結果、4フレーム目の水平ラインnに対応する、期間(r´+Lr2+Lr+r´)にR光で露光された場合の画像信号に対応するR画像信号F4n(R)、期間(g+Lg2+Lg3+g)にG光で露光された場合の画像信号に対応するG画像信号F4n(G)、期間(B+Lb2+Lb3+B)にB光で露光された場合の画像信号に対応するB画像信号F4n(B)を生成することができる。色成分演算部31aは、各水平ラインに対応するパラメータを行列Aのパラメータとして用い、演算対象の水平ラインの画像信号F3n,F2n,F1nの出力値を入力した(8)式を解く演算処理を、先頭の水平ライン1から最終の水平ラインNまでそれぞれ順次行う。この結果、色成分演算部31aは、4フレーム目のR画像信号F4(R)、G画像信号F4(G)、B画像信号F4(B)をフレーム単位で取得することができる。5フレーム以降についても、(8)式の行列Aにそれぞれ対応するパラメータを適用し、各水平ラインnごとに行列Aの逆行列A -1を演算して、水平ラインnごとに各色成分の画像信号を取得する。
 次に、(8)式中の行列Aの階数について説明する。(8)式の行列Aは、以下の(9)式のように分解できる。
Figure JPOXMLDOC01-appb-M000009
 (9)式のように、行列Aは、第1光による各露光時間r,r,g,g,b,bがパラメータとなる行列A4-11、第2光による各露光時間R,R,G,G,B,Bがパラメータとなる行列A4-12、第3光による各露光時間r´,r´,g´,g´,b´,b´がパラメータとなる行列A4-13、第1光の照射期間と第2光の照射期間と第3光の照射期間との和の逆数がパラメータとなる行列A4-14に分解できる。このうち、行列A4-14は、対角行列であるため、ランク3であり、逆行列が存在する。このため、(8)式の解が一意に決まるためには、行列A4-11~行列A4-13の加算後の行列がランク3であればよい。以下、(9)式における行列A4-11の1行目の成分から成る行ベクトル(r,g,0)をQaa、2行目の成分から成る行ベクトル(r,0,b)をQba、3行目の成分から成る行ベクトル(0,g,b)をQcaという。(9)式における行列A4-12の1行目の成分から成る行ベクトル(0,G,B)をQab、2行目の成分から成る行ベクトル(R,G,0)をQbb、3行目の成分から成る行ベクトル(R,0,B)をQcbという。(9)式における行列A4-13の1行目の成分から成る行ベクトル(r´,0,b´)をQac、2行目の成分から成る行ベクトル(0,g´,b´)をQbc、3行目の成分から成る行ベクトル(r´,g´,0)をQccという。
 図18は、本実施の形態3で求める画像信号の解の一意性を説明する図であり、行列A4-11の行ベクトルQaa,Qba,Qcaと、行列A4-12の行ベクトルQab,Qbb,Qcbと、行列A4-13の行ベクトルQac,Qbc,Qccと、をR,G,B空間で見た場合を示す図である。図18は、第1光のR,G,Bの照明期間が同期間であり、第2光のR,G,Bの各照明期間が同期間であり、第3光のR,G,Bの照明期間が同期間であり、第1光は、第3光の照明期間の3倍の期間であり、第2光は第3光の照明期間の2倍の期間である場合について示す。
 第1光の露光期間に対応する行ベクトルQaa,Qba,Qcaは、R-G平面、B-R平面、G-B平面の各平面上で、R軸上、G軸上、B軸上の第1光の照明時間幅に対応する3点が起点或いは終点となる軌跡PQaa,PQba,PQcaを描く。第2光の露光期間に対応する行ベクトルQab,Qbb,Qcbは、R-G平面、B-R平面、G-B平面の各平面上で、R軸上、G軸上、B軸上の第2光の照明時間幅に対応する3点が起点或いは終点となる軌跡PQab,PQbb,PQcbを描く。第3光の露光期間に対応する行ベクトルQac,Qbc,Qccは、R-G平面、B-R平面、G-B平面の各平面上で、R軸上、G軸上、B軸上の第3光の照明時間幅に対応する3点が起点或いは終点となる軌跡PQac,PQbc,PQccを描く。
 この結果、行ベクトルQaa,Qab,Qacの合成ベクトルである行列Aの行ベクトルQaは、軌跡PQaを描き、行ベクトルQba,Qbb,Qbcの合成ベクトルである行列Aの行ベクトルQbは、軌跡PQbを描き、行ベクトルQac,Qbc,Qccの合成ベクトルである行列Aの行ベクトルQcは、軌跡PQcを描き、行ベクトルQa~Qcに対応する軌跡で形成される三角形が面積を有する状態となる。この場合には、いずれの行ベクトルQa~Qcについても対応する軌跡が重複することがない。行ベクトルQa~Qcは独立性を保持し、行列Aはランク3となるため、(8)式における行列Aの逆行列A -1は存在し、(8)式の解は一意に定まる。
 図19は、本実施の形態3で求める画像信号の解の一意性を説明する図であり、行列A4-11の行ベクトルQaa,Qba,Qcaと、行列A4-12の行ベクトルQab,Qbb,Qcbと、行列A4-13の行ベクトルQac,Qbc,Qccと、をR,G,B空間で見た場合の他の例を示す図である。各色の照明期間のうち、フレーム3の第1光のR光の照明期間Lr3を、他のフレーム1,2の第1光の照明期間の(4/3)倍に長くし、第2光のG光の照明期間Lg3を他のフレーム1,2の第2光の照明期間の(4/3)倍に長くし、第3光のB光の照明期間Lb3を他のフレーム1,2の第3光の照明期間の(4/3)倍に長くした場合について示す。
 この場合には、図18と比して、軌跡PQbaの起点および軌跡PQcaの終点が、他のフレーム1,2の第1光の照明期間の(4/3)倍に長いフレーム3の第1光のR光の照明期間Lr3に対応する点となり、軌跡PQabの起点および軌跡PQbbの終点が、他のフレーム1,2の第2光の照明期間の(4/3)倍に長いフレーム3の第2光のG光の照明期間Lg3に対応する点となり、軌跡PQacの起点および軌跡PQbcの終点が、他のフレーム1,2の第2光の照明期間の(4/3)倍に長いフレーム3の第3光のB光の照明期間Lb3に対応する点となる。この場合も、行ベクトルQa~Qcに対応する軌跡PQa,PQb,PQcで形成される三角形が面積を有する状態となり、行ベクトルQa~Qcは独立性を保持し、行列Aはランク3となる。したがって、実施の形態3では、第1光、第2光、第3光の照明期間を、他のフレームの第1光、第2光、第3光の照明期間と異なる期間に変更することが可能である。
 ただし、同一フレームにおける第1光、第2光、第3光の照明期間をいずれも同期間にした場合には、行ベクトルQaa,Qbb,Qccが重複し、行ベクトルQac,Qba,Qcbが重複し、行ベクトルQab,Qbc,Qcaが重複する。この場合には、行ベクトルQa~Qcは、行ベクトルQaa,Qbb,Qcc、行ベクトルQac,Qba,Qcb、行ベクトルQab,Qbc,Qcaの軌跡で形成される三角形の重心に位置し、動かなくなるため、行ベクトルQa~Qcの一次独立は破綻し、ランク3が崩れ、(8)式の解が一意に定まらない。したがって、行ベクトルQa~Qcに対応する軌跡PQa,PQb,PQcで形成される三角形が面積を有することが、行列Aのランク3を維持する条件となるため、照明制御部334aは、同じ1ライン露光期間における3色の照明期間がそれぞれ異なる期間で照明されるように制御する必要がある。なお、第1光、第2光および第3光の照明期間の差が大きいと、行ベクトルQa~Qcに対応する軌跡PQa,PQb,PQcで形成される三角形の面積が大きくなり、行ベクトルQa~Qcの独立性を維持しやすくなるため、照明制御部334aは、同じ1ライン露光期間における第1光、第2光および第3光の照明期間の差が大きくなる条件を設定することが望ましい。
 この実施の形態3のように、1フレームで3色発光を行った場合も、複数の連続したフレームの画像信号の出力値を用いた演算処理において、取得対象のフレームの各色成分の画像信号を抽出しているため、実施の形態1と同様の効果を奏する。さらに、実施の形態3では、実施の形態2よりもさらに各色の照明頻度が多くなる分、被写体が動いた場合の残像を低減できる。
 なお、実施の形態3は、実施の形態1,2と同様に、撮像素子25がグローバルシャッタ方式を採用するCCD撮像素子である場合にも適用可能である。図20は、撮像素子25がCCD撮像素子である場合の露光、読み出しタイミングを示すタイミングチャートである。照明制御部334aが、光源装置4に、図20の(1)に示す条件でG光、B光、R光を照射させ、例えば4フレーム目のR画像信号F4c(R)、G画像信号F4c(G)、B画像信号F4c(B)を生成する場合には、連続する3つのフレーム画像信号F~F(図20の(2)参照)の演算対象の水平ラインと同ラインの出力値を、(8)式に入力して、水平ラインごとに演算する。この場合も、CMOS撮像素子の場合と同様に、水平ラインnについては、連続するフレーム1~3の第1光のG,B,R光の各照明期間Lg1,Lb2,Lr3、第2光のB,R,G光の各照明期間Lb1,Lr2,Lg3、第3光のR,G,B光の各照明期間Lr1,Lg2,Lb3、フレーム1~3における水平ラインnへの第1光のG光に対する露光期間g,g、第1光のB光に対する露光期間b,b、第1光のR光に対する露光期間r,r、第2光のB光に対する露光期間B,B、第2光のR光に対する露光期間R,R、第2光のG光に対する露光期間G,G、第3光のR光に対する露光期間r´,r´、第3光のG光に対する露光期間g´,g´、第3光のB光に対する露光期間b´,b´が(8)式の行列Aのパラメータとなる。
 また、本実施の形態3は、実施の形態1,2と同様に、NBI観察方式にも適用可能である。この場合には、照明制御部334aは、V光とG光と無光との組み合わせ、V光とG光とVV光との組み合わせ、或いは、V光とG光とGG光の組み合わせのいずれかのパターンを用いて、R,G,B光照射の条件と同様に、1つの1ライン露光期間に3色全ての照明光を照明させる照明処理を、同じ1ライン露光期間における3色の照明期間がそれぞれ異なる期間で照明されるように実行させればよい。また、実施の形態3では、同じ1ライン露光期間において照明される3色の照明光のいずれもが重複して照明される期間を含むように3色の照明光を照明させる場合を例に説明したが、(8)式の行列Aがランク3となる条件であれば、同一の1ライン露光期間において照明させる3色の照明光の照明期間が重複していなくともよい。
また、本実施の形態において、光源装置と別体である処理装置3,203,303を例に説明したが、もちろん、光源が一体となった光源一体型処理装置にも適用可能である。また、本実施の形態において、照明光の組み合わせは、R,G,B光の組み合わせ、或いは、狭帯域化されたV光とG光との組み合わせに限らない。G光と励起光と励起光との組み合わせ、G光と第1のR光と第1のR光とは異なる波長帯域の第2のR光との組み合わせであってもよい。また、狭帯域化されたV光とG光との組み合わせ例でも説明したように、3回単位で発する照明光のうちの2回の照明光において、波長帯域が異なれば本実施の形態は適用可能である。
 また、本実施の形態にかかる処理装置3,203,303、並びに、他の構成部で実行される各処理に対する実行プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよく、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、インターネット等のネットワーク経由で提供または配布するように構成してもよい。
 1,201,301 内視鏡システム
 2 内視鏡
 3,203,303 処理装置
 4 光源装置
 5 表示装置
 21 挿入部
 21a 先端部
 21b 湾曲部
 21c 可撓管部
 21d 開口部
 21e 照明レンズ
 21f 照明窓
 22 操作部
 22a 湾曲ノブ
 22b 処置具挿入部
 22c スイッチ部
 23 ユニバーサルコード
 23a,23b コネクタ
 23c ライトガイドケーブル
 24 光学系
 25 撮像素子
 26 受光部
 27 読み出し部
 31 画像処理部
 31a 色成分演算部
 31b メモリ
 31c ゲイン調整部
 31d WB調整部
 31e 同時化部
 32 表示制御部
 33 調光部
 34,234,334 制御部
 34a,234a,334a 照明制御部
 35 入力部
 36 記憶部
 41 光源制御部
 42 照明部
 43 光源ドライバ
 44 光源
 236a,336a 照明期間テーブル

Claims (16)

  1.  被写体を照明するための照明光として、異なる色の照明光を所定の周期に対応させて順次発する光源装置と、
     前記照明光が照射された被写体からの光を光電変換して画像信号を生成して出力する複数の画素が行列状に配置された撮像素子を有する内視鏡装置と、
     前記撮像素子から出力された画像信号のうち、前記照明光の色の数に応じた連続する複数のフレームの画像信号の出力値を用いて各色成分信号を前記撮像素子における画素配列のラインごとに演算する色成分演算部を有する処理装置と、
     を有することを特徴とする内視鏡システム。
  2.  前記色成分演算部は、前記撮像素子から画像信号が出力された最新のフレームと、該フレームの前のフレームの画像信号の出力値のうち、演算対象であるラインと同ラインの出力値を用いて、演算対象であるラインの色成分信号を演算することを特徴とする請求項1に記載の内視鏡システム。
  3.  前記処理装置は、前記光源装置に対し、1ライン露光期間ごとに、1ライン露光期間以下の期間で前記照明光を照明させる制御を行う照明制御部を備えたことを特徴とする請求項2に記載の内視鏡システム。
  4.  前記照明制御部は、前記光源装置に、各色の照明光が一定の条件を満たすように各色の照明光を照明させ、
     前記色成分演算部は、演算に使用する各フレームにおける各色の1ライン露光期間の1回あたりのそれぞれの照明期間と、演算に使用する各フレームにおける演算対象のラインへの各色のそれぞれの露光期間と、を用いた関係式を用いて、ラインごとに各色成分信号を演算することを特徴とする請求項3に記載の内視鏡システム。
  5.  前記光源装置は、3色の照明光を照明し、
     前記色成分演算部は、前記撮像素子から画像信号が出力された最新のフレームと、該フレームの1つ前のフレームおよび2つ前のフレームとにおける画像信号の出力値のうち、演算対象であるラインと同ラインの出力値を前記関係式に適用して、演算対象のラインにおける各色成分信号を演算することを特徴とする請求項4に記載の内視鏡システム。
  6.  前記照明制御部は、前記光源装置に対し、1つの前記1ライン露光期間に前記3色のうちの1色の照明光を照明させる照明処理を順次実行させることを特徴とする請求項5に記載の内視鏡システム。
  7.  前記照明制御部は、前記光源装置に対し、1つの前記1ライン露光期間に前記3色のうちの2色の照明光を照明させることを特徴とする請求項5に記載の内視鏡システム。
  8.  前記照明制御部は、前記光源装置に対し、前記2色の照明光の照明期間が少なくとも一部で重複する状態で照明させることを特徴とする請求項7に記載の内視鏡システム。
  9.  前記照明制御部は、前記光源装置に対し、1つの前記1ライン露光期間に前記3色の全ての照明光をそれぞれ異なる照明期間で照明させることを特徴とする請求項5に記載の内視鏡システム。
  10.  前記照明制御部は、前記光源装置に対し、前記3色の照明光のいずれもが重複して照明される期間を含むように前記3色の照明光を照明させることを特徴とする請求項9に記載の内視鏡システム。
  11.  前記処理装置は、
     前記撮像素子から出力された画像信号から画像の明るさを検出し、該検出した画像の明るさを基に前記光源装置から照射させる各色の照明光の照明期間を求める調光部と、
     前記関係式の解が一意に定まる各色の照明光の照明期間の組み合わせが複数示された照明期間情報を記憶する記憶部と、
     をさらに備え、
     前記照明制御部は、前記光源装置に対し、前記記憶部が記憶する照明期間情報で示された各色の照明光の照明期間の組み合わせのうち、前記調光部が求めた各色の照明光の照明期間に最も近い組み合わせの照明期間で各色の照明光を照明させることを特徴とする請求項7に記載の内視鏡システム。
  12.  前記3色の照明光は、赤色光、緑色光、青色光であることを特徴とする請求項5に記載の内視鏡システム。
  13.  前記撮像素子は、CMOS撮像素子であることを特徴とする請求項1に記載の内視鏡システム。
  14.  前記照明制御部は、前記光源装置に対して、前記照明光を、前記撮像素子における先頭ラインの画素に対する露光期間の終了タイミングと同じタイミングで消灯させることを特徴とする請求項13に記載の内視鏡システム。
  15.  前記撮像素子は、CCD撮像素子であることを特徴とする請求項1に記載の内視鏡システム。
  16.  被写体を照明するための照明光を発する光源装置を制御するとともに、前記照明光が照射された被写体からの光を光電変換して画像信号を生成して出力する複数の画素が行列状に配置された内視鏡装置の撮像素子から出力された画像信号を処理する処理装置であって、
     前記光源装置に対し、異なる色の照明光を所定の周期に対応させて順次照明させる照明制御部と、
     前記内視鏡装置の撮像素子から出力された画像信号の出力値のうち、前記照明光の色の数に応じた連続する複数のフレームの画像信号の出力値を用いて各色成分信号を前記撮像素子における画素配列のラインごとに演算する色成分演算部と、
     を備えたことを特徴とする処理装置。
PCT/JP2016/050506 2015-01-16 2016-01-08 内視鏡システムおよび処理装置 WO2016114231A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP16737302.6A EP3245935A1 (en) 2015-01-16 2016-01-08 Endoscope system and processing device
JP2016534264A JP6072372B2 (ja) 2015-01-16 2016-01-08 内視鏡システム
CN201680003573.7A CN107072516B (zh) 2015-01-16 2016-01-08 内窥镜***
US15/590,461 US10575720B2 (en) 2015-01-16 2017-05-09 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015007078 2015-01-16
JP2015-007078 2015-01-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/590,461 Continuation US10575720B2 (en) 2015-01-16 2017-05-09 Endoscope system

Publications (1)

Publication Number Publication Date
WO2016114231A1 true WO2016114231A1 (ja) 2016-07-21

Family

ID=56405778

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/050506 WO2016114231A1 (ja) 2015-01-16 2016-01-08 内視鏡システムおよび処理装置

Country Status (5)

Country Link
US (1) US10575720B2 (ja)
EP (1) EP3245935A1 (ja)
JP (1) JP6072372B2 (ja)
CN (1) CN107072516B (ja)
WO (1) WO2016114231A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019191323A (ja) * 2018-04-23 2019-10-31 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法、プログラム、および記録媒体

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3424403B1 (en) * 2016-03-03 2024-04-24 Sony Group Corporation Medical image processing device, system, method, and program
JP2020151402A (ja) * 2019-03-22 2020-09-24 ソニー・オリンパスメディカルソリューションズ株式会社 医療用制御装置及び内視鏡システム
FR3094857B1 (fr) * 2019-04-03 2022-03-18 Fluoptics Procédé d’imagerie avec lumière pulsée
US11389066B2 (en) * 2019-06-20 2022-07-19 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11540696B2 (en) 2019-06-20 2023-01-03 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US12013496B2 (en) 2019-06-20 2024-06-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed laser mapping imaging system
US11898909B2 (en) 2019-06-20 2024-02-13 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11925328B2 (en) 2019-06-20 2024-03-12 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral imaging system
US11471055B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11528434B1 (en) * 2021-02-09 2022-12-13 Verily Life Sciences Llc Pulsed light imaging using rolling shutter image sensors
CN114598829A (zh) * 2022-03-17 2022-06-07 上海宇度医学科技股份有限公司 一种单cmos成像***及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013146311A1 (ja) * 2012-03-28 2013-10-03 富士フイルム株式会社 撮像装置、及びこれを備える内視鏡装置
WO2013157368A1 (ja) * 2012-04-16 2013-10-24 オリンパスメディカルシステムズ株式会社 撮像システム、撮像方法
JP2014183909A (ja) * 2013-03-22 2014-10-02 Olympus Medical Systems Corp 撮像システム
JP2014183908A (ja) * 2013-03-22 2014-10-02 Olympus Medical Systems Corp 撮像システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103781398B (zh) * 2011-11-07 2016-08-17 奥林巴斯株式会社 摄像装置
WO2013099942A1 (ja) * 2011-12-27 2013-07-04 オリンパスメディカルシステムズ株式会社 撮像装置
JP5774531B2 (ja) 2012-03-28 2015-09-09 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、及び画像処理プログラム
WO2013175908A1 (ja) * 2012-05-25 2013-11-28 オリンパスメディカルシステムズ株式会社 撮像システム
JP6355527B2 (ja) * 2014-10-31 2018-07-11 富士フイルム株式会社 内視鏡システム及びその作動方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013146311A1 (ja) * 2012-03-28 2013-10-03 富士フイルム株式会社 撮像装置、及びこれを備える内視鏡装置
WO2013157368A1 (ja) * 2012-04-16 2013-10-24 オリンパスメディカルシステムズ株式会社 撮像システム、撮像方法
JP2014183909A (ja) * 2013-03-22 2014-10-02 Olympus Medical Systems Corp 撮像システム
JP2014183908A (ja) * 2013-03-22 2014-10-02 Olympus Medical Systems Corp 撮像システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019191323A (ja) * 2018-04-23 2019-10-31 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法、プログラム、および記録媒体
JP7176855B2 (ja) 2018-04-23 2022-11-22 株式会社エビデント 内視鏡装置、内視鏡装置の作動方法、プログラム、および記録媒体

Also Published As

Publication number Publication date
US10575720B2 (en) 2020-03-03
JP6072372B2 (ja) 2017-02-01
US20170238791A1 (en) 2017-08-24
CN107072516B (zh) 2018-11-16
CN107072516A (zh) 2017-08-18
EP3245935A1 (en) 2017-11-22
JPWO2016114231A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6072372B2 (ja) 内視鏡システム
CN106256123B (zh) 处理装置、摄像装置以及内窥镜***
JP5927370B1 (ja) 撮像装置および処理装置
JP6471173B2 (ja) 画像処理装置、内視鏡装置の作動方法、画像処理プログラムおよび内視鏡装置
JP6401800B2 (ja) 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置
WO2015093295A1 (ja) 内視鏡装置
JP6047467B2 (ja) 内視鏡システム及びその作動方法
WO2016084257A1 (ja) 内視鏡装置
WO2015114906A1 (ja) 撮像システムおよび撮像装置
WO2018142658A1 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理装置の作動プログラム
WO2020178962A1 (ja) 内視鏡システムおよび画像処理装置
JP6137892B2 (ja) 撮像システム
JP6945660B2 (ja) 撮像システムおよび処理装置
JP6346501B2 (ja) 内視鏡装置
JP6937902B2 (ja) 内視鏡システム
JP6043025B2 (ja) 撮像システム及び画像処理装置
JP7224963B2 (ja) 医療用制御装置及び医療用観察システム
JP5815162B2 (ja) 撮像装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016534264

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16737302

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2016737302

Country of ref document: EP