WO2017169121A1 - 内視鏡プロセッサ及び内視鏡プロセッサを有する観察システム - Google Patents

内視鏡プロセッサ及び内視鏡プロセッサを有する観察システム Download PDF

Info

Publication number
WO2017169121A1
WO2017169121A1 PCT/JP2017/004213 JP2017004213W WO2017169121A1 WO 2017169121 A1 WO2017169121 A1 WO 2017169121A1 JP 2017004213 W JP2017004213 W JP 2017004213W WO 2017169121 A1 WO2017169121 A1 WO 2017169121A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
screen display
endoscope
display mode
unit
Prior art date
Application number
PCT/JP2017/004213
Other languages
English (en)
French (fr)
Inventor
和真 金子
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2017169121A1 publication Critical patent/WO2017169121A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present invention relates to an endoscope processor and an observation system having an endoscope processor.
  • the conventional observation system does not display character information for assisting observation such as the rotation angle of the endoscope image, the identification number of the subject or the photographing date and time, the rotation angle of the endoscope image is not displayed by the operator. Etc. may not be grasped, and inconvenience may be caused in observing the subject.
  • the present invention includes an endoscopic image captured by each of a plurality of endoscopes, and character information is arranged without narrowing the display area of the endoscopic image so that the endoscopic image does not become difficult to see.
  • Another object of the present invention is to provide an observation system that generates a synthesized image.
  • the observation system includes a first endoscopic image, first additional information, and a first additional information in a first screen display mode based on an imaging signal acquired from the first endoscope.
  • the first endoscopic image and the first summary information obtained by summarizing the first additional information are included.
  • a first endoscope processor that outputs an output image of the second endoscope, and a second output image that includes the second endoscope image based on an imaging signal acquired from the second endoscope.
  • Two endoscope processors the first endoscope processor, and the second endoscope processor connected to each other, and in the first screen display mode, the first output image or the second output One of the images is displayed, and in the second screen display mode, the first Show force image and the synthetic image based on the second output image, and a display device.
  • An endoscope processor includes an image input unit that can input an external image from an endoscope processor of an external endoscope system, and an imaging signal acquired from the endoscope.
  • An image generation unit that generates an endoscopic image, a first image configured to include the endoscopic image and additional information, and summary information obtained by summarizing the endoscopic image and the additional information
  • Output at least one of the second image to be output connected to the output image generation unit, the image input unit, and the output image generation unit, and in the first screen display mode, the first image
  • a switching output unit that outputs either the image or the external image and outputs a combined image obtained by combining the second image and the external image in the second screen display mode.
  • 1 is a block diagram showing a schematic configuration of an observation system according to a first embodiment of the present invention. It is sectional drawing which shows the structure of the actuator of the scanning endoscope apparatus of the observation system concerning the 1st Embodiment of this invention. It is explanatory drawing explaining the spiral scanning path
  • FIG. 1 is a block diagram showing a schematic configuration of an observation system 1 according to the first embodiment of the present invention.
  • the observation system 1 includes endoscope systems 11 and 21 and a display device 31. Each of the endoscope systems 11 and 21 is connected to a display device 31.
  • each of the insertion portions 12 a and 22 a of the endoscopes 12 and 22 included in the endoscope system 11 can be inserted into the subject and the subject can be imaged.
  • the insertion portion 12a of the endoscope 12 can also be imaged by the insertion portion 22a of the mirror 22.
  • the endoscope system 11 is configured by a scanning endoscope system.
  • An endoscope system 11 that is a first endoscope system includes an endoscope 12 that is a first endoscope and an endoscope processor 13 that is a first endoscope processor.
  • the endoscope processor 13 includes a light source unit 14, a driver unit 15, a detection unit 16, an operation unit 17, and an image processing unit 18.
  • the light source unit 14 is configured to be able to generate red, green and blue laser light.
  • the light source unit 14 is connected to the illumination optical fiber 14a.
  • the light source unit 14 sequentially and repeatedly generates laser light from red, green, and blue laser light sources (not shown), and enters the laser light into the illumination optical fiber 14a via a multiplexer (not shown).
  • the illumination optical fiber 14 a can guide the laser light incident from the light source unit 14 to the irradiation side end 14 b of the illumination optical fiber 14 a in the endoscope 12.
  • the driver unit 15 is a circuit that drives the actuator 15a of the endoscope 12 and swings the irradiation side end portion 14b of the illumination optical fiber 14a.
  • the driver unit 15 is connected to the actuator 15a.
  • the driver unit 15 generates drive signals AX and AY by a signal generator (not shown) and outputs the drive signals to the actuator 15a.
  • the drive signal AX is output so that the irradiation side end 14b of the illumination optical fiber 14a can be moved in the X-axis direction.
  • the drive signal AX is defined by the following formula (1), for example.
  • X (t) is a signal level at time t
  • AX is an amplitude value independent of time t
  • G (t) is a predetermined function for modulating a sine wave sin (2 ⁇ ft). is there.
  • the drive signal AY is output so that the irradiation side end 14b of the illumination optical fiber 14a can be moved in the Y-axis direction.
  • the drive signal AY is defined by, for example, the following formula (2).
  • Y (t) is a signal level at time t
  • AY is an amplitude value independent of time t
  • G (t) is a predetermined function for modulating a sine wave sin (2 ⁇ ft + ⁇ ).
  • is the phase.
  • FIG. 2 is a cross-sectional view showing the configuration of the actuator 15a of the endoscope system 11 of the observation system 1 according to the first embodiment of the present invention.
  • the endoscope 12 is configured to be inserted into a subject, irradiate the subject with light emitted by the light source unit 14, and capture reflected light of the subject.
  • the endoscope 12 includes an insertion portion 12a, an actuator 15a, a lens 12b, and a light receiving portion 12c.
  • the insertion portion 12a is formed in an elongated shape and can be inserted into the subject.
  • the actuator 15a is configured to swing the irradiation side end 14b of the illumination optical fiber 14a and move the irradiation position of the laser light along a predetermined operation path.
  • the predetermined operation path is, for example, a spiral operation path.
  • the actuator 15 a includes a ferrule 15 b and a plurality of piezoelectric elements 15 c provided on the outer periphery of the ferrule 15 b.
  • Each of the piezoelectric elements 15c has a predetermined polarization direction, vibrates according to the drive signals AX and AY input from the driver unit 15, and swings the irradiation side end 14b of the illumination optical fiber 14a. .
  • the lens 12b is provided at the distal end of the insertion portion 12a, and is configured to irradiate the subject with illumination light irradiated from the irradiation side end portion 14b of the illumination optical fiber 14a.
  • the light receiving part 12c is provided at the tip of the insertion part 12a and receives the reflected light of the subject.
  • the received reflected light of the subject is output to the detection unit 16 of the endoscope processor 13 through the light receiving optical fiber 12d.
  • FIGS. 3A and 3B are explanatory diagrams for explaining a spiral scanning path of the endoscope system 11 of the observation system 1 according to the first embodiment of the present invention.
  • the illumination optical fiber 14a When the driver unit 15 outputs the drive signals AX and AY while increasing the signal level, the illumination optical fiber 14a is swung by the actuator 15a, and the irradiation position of the laser light on the illumination optical fiber 14a is A1 in FIG. 3A. To B1, as it moves along a spiral scan path that gradually moves away from the center. Thereafter, when the driver unit 15 outputs the drive signals AX and AY while reducing the signal level, the irradiation position of the laser light of the illumination optical fiber 14a gradually approaches the center as shown by B2 to A2 in FIG. 3B. It moves along a spiral scanning path. As a result, the red, green, and blue laser beams are spirally applied to the subject, and the reflected light of the subject is received by the light receiving unit 12c.
  • the detection unit 16 is a circuit that detects reflected light.
  • the detection unit 16 includes a photoelectric conversion element (not shown).
  • the detection unit 16 is connected to the image processing unit 18.
  • the detection unit 16 converts the reflected light of the subject input from the light receiving optical fiber 12 d into an imaging signal and outputs the image signal to the image processing unit 18.
  • the first operation unit 17 includes, for example, a changeover switch or the like, and is either a full screen display mode that is a first screen display mode or a multiple display mode that is a second screen display mode. It is possible to input a switching instruction for switching to. More specifically, the operation unit 17 receives an instruction to switch the screen display mode among the full screen display mode of the endoscope system 11, the full screen display mode of the endoscope system 21, or the multiple display mode. Is possible.
  • the multiple display mode is a mode displayed by, for example, a picture-in-picture method or a picture-out-picture method.
  • the operation unit 17 is connected to a switching output unit 18c (FIG. 4A) in the image processing unit 18. When a screen display mode switching instruction is input, the operation unit 17 outputs a screen display mode switching instruction signal to the switching output unit 18c.
  • the operation unit 17 is configured to be able to input various control information and give instructions to the endoscope processor 13.
  • the various control information includes, for example, an edge enhancement mode value (hereinafter referred to as “ENH”) indicating a mode of edge enhancement processing, a rotation angle value (hereinafter referred to as “ROT”) indicating a rotation angle of image rotation processing, and brightness adjustment.
  • ENH edge enhancement mode value
  • ROT rotation angle value
  • BRT luminance setting value
  • IRIS an iris value
  • COL color adjustment mode value
  • the various setting information is not limited to ENH, ROT, BRT, IRIS, COL, ID, and DATE, and may include other information.
  • FIG. 4A is a block diagram showing a configuration of the image processing unit 18 of the observation system 1 according to the first embodiment of the present invention.
  • FIG. 4B is a block diagram illustrating a configuration of the image processing unit 28 of the observation system 1 according to the first embodiment of the present invention.
  • 4A and 4B indicate the flow of the screen display mode switching instruction signal.
  • FIG. 5A and FIG. 5B are explanatory diagrams for explaining a screen configuration example of the full screen display mode of the observation system 1 according to the first embodiment of the present invention.
  • the inside of the display frame is omitted, and only the display frames of the endoscopic images Ea and Eb are shown.
  • FIG. 5A, 5B, and 6 the inside of the display frame is omitted, and only the display frames of the endoscopic images Ea and Eb are shown.
  • FIG. 5A, 5B, and 6 the inside of the display frame is omitted, and only the display frames of the endoscopic images Ea and Eb are shown.
  • FIG. 6 is an explanatory diagram for explaining a screen configuration example of the multiple display mode of the observation system 1 according to the first embodiment of the present invention.
  • 7A and 7B are diagrams showing examples of conversion tables T1 and T2 of the observation system 1 according to the first embodiment of the present invention.
  • the image processing unit 18 is a circuit that performs image processing.
  • the image processing unit 18 includes an image generation unit 18a, an output image generation unit 18b, and a switching output unit 18c.
  • the image generation unit 18 a is a circuit that generates an endoscopic image Ea (FIG. 5A) based on an imaging signal input from the detection unit 16.
  • the image generation unit 18a is connected to the output image generation unit 18b.
  • the image generation unit 18a Based on the imaging signal input from the detection unit 16, the image generation unit 18a refers to a mapping table (not shown) and generates an endoscopic image Ea frame by frame.
  • the image generation unit 18a further performs correction processing, such as contour enhancement processing, image rotation processing, luminance adjustment processing, iris adjustment processing, and color adjustment processing, on the endoscopic image Ea.
  • the endoscopic image Ea is output to the output image generation unit 18b.
  • the output image generation unit 18b includes a full-screen display image S1a including an endoscopic image Ea and additional information Va, and a plurality of display images M1a including summary information Wa obtained by summarizing the endoscopic image Ea and additional information Va. Are output to the switching output unit 18c.
  • the output image generation unit 18b includes a full screen display processing unit 18b1 and a multiple display processing unit 18b2.
  • the full screen display processing unit 18b1 is a circuit that generates the full screen display image S1a (FIG. 5A).
  • the full screen display processing unit 18b1 is connected to the multiple display processing unit 18b2 and the switching output unit 18c.
  • the full screen display processing unit 18b1 includes an additional information unit 19a.
  • the full screen display processing unit 18b1 is based on the endoscopic image Ea input from the image generation unit 18a and the additional information Va (FIG. 5A) generated by the processing of the additional information unit 19a.
  • S1a is generated and output to the multiple display processing unit 18b2 and the switching output unit 18c.
  • the additional information unit 19a can acquire various types of control information related to observation of the subject in the endoscope system 11 that is a scanning endoscope system, and based on the acquired control information, the endoscope image Ea.
  • the additional information Va for assisting the observation is generated.
  • the additional information Va is composed of character information.
  • the additional information Va includes, for example, ENH, ROT, BRT, IRIS, COL, ID, and DATE related to the endoscope image Ea.
  • the additional information Va is not limited to ENH, ROT, BRT, IRIS, COL, ID, and DATE, but may include other information.
  • the multiple display processing unit 18b2 is a circuit that generates a multiple display image M1a (FIG. 6) described later.
  • the multiple display processing unit 18b2 is connected to the switching output unit 18c.
  • the multiple display processing unit 18b2 can start or stop the operation in accordance with a switching instruction signal input from the switching output unit 18c.
  • the multiple display processing unit 18b2 includes a summarizing unit 19b and a conversion table T1 (FIG. 7A).
  • the multiple display processing unit 18b2 starts to operate in response to a switching instruction signal for switching to the multiple display mode input from the switching output unit 18c, and is included in the full screen display image S1a input from the full screen display processing unit 18b1.
  • the summarizing unit 19b can extract the additional information Va from the full-screen display image S1a input from the full-screen display processing unit 18b1, and can generate the summary information Wa based on the extracted additional information Va by a summarizing process described later. is there.
  • the switching output unit 18c is a circuit that switches the image output to the display device 31 to either the full screen display image S1a or the multiple display image M1a.
  • the switching output unit 18 c is connected to the display device 31.
  • a switching instruction signal for switching to the full screen display mode of the endoscope system 11 is input from the operation unit 17, the switching output unit 18 c outputs a switching instruction signal for stopping the generation of the multiple display image M ⁇ b> 1 a.
  • the operation of the multiple display processing unit 18b2 is stopped, and the full screen display image S1a input from the full screen display processing unit 18b1 is output to the display device 31 as the first output image.
  • the switching output unit 18c When a switching instruction signal for switching to the multiple display mode is input from the operation unit 17, the switching output unit 18c outputs a switching instruction signal for starting generation of the multiple display image M1a to the multiple display processing unit 18b2. Then, the operation of the multiple display processing unit 18b2 is started, and the multiple display image M1a input from the multiple display processing unit 18b2 is output to the display device 31 as a first output image.
  • the switching output unit 18 c When there is an instruction signal for switching the screen display mode of the endoscope system 11 from the operation unit 17, the switching output unit 18 c also sets the screen display mode to the display device 31 and the endoscope system 21 via the display device 31. A switching instruction signal for switching is output.
  • the endoscope processor 13 is configured to include the endoscopic image Ea and the additional information Va in the full-screen display mode based on the imaging signal acquired from the endoscope 12, and includes a plurality of display modes.
  • the first output image configured to include the endoscopic image Ea and the summary information Wa obtained by summarizing the additional information Va is output to the display device 31.
  • the endoscope system 21 is configured by a non-scanning endoscope system.
  • the endoscope system 21 includes an endoscope 22 that is a second endoscope, an endoscope processor 23 that is a second endoscope processor, and a light source device 24.
  • the endoscope 22 is connected to the endoscope processor 23.
  • the light source device 24 is connected to the endoscope 22 and the endoscope processor 23.
  • the light source device 24 is configured to be able to generate illumination light including white light or narrow band light, for example, by an LED or the like.
  • the light source device 24 is connected to the endoscope 22 by an optical fiber 24a.
  • the light source device 24 is connected to the endoscope processor 23.
  • the light source device 24 is configured to generate illumination light and guide the illumination light to the light guide 22 b of the endoscope 22 under the control of the light source control unit 25 of the endoscope processor 23.
  • the endoscope 22 is configured to be inserted into a subject and to irradiate the subject with light emitted by the light source device 24 and to image reflected light of the subject.
  • the endoscope 22 includes an insertion portion 22a, a light guide 22b, a lens 22c, an actuator 22d, and an image sensor 22e.
  • the insertion portion 22a is formed in an elongated shape and can be inserted into the subject.
  • the light guide 22b is configured to irradiate the subject with light emitted from the light source device 24 from the distal end of the insertion portion 22a.
  • a plurality of lenses 22c are provided along the optical axis direction at the distal end of the insertion portion 22a, and the reflected light of the subject can be taken in.
  • the actuator 22d is connected to the CCU 26 of the endoscope processor 23, and the focal length of the lens 22c with respect to the subject can be adjusted by moving a plurality of lenses 22c along the optical axis direction under the control of the CCU 26. It is.
  • the imaging element 22e is configured by a photoelectric conversion element such as a CCD, and can convert the reflected light of the subject projected on the imaging surface into an imaging signal.
  • the image sensor 22 e is connected to the CCU 26 and outputs an image signal to the CCU 26.
  • the endoscope processor 23 includes a CCU 26, a light source control unit 25, and an image processing unit 28.
  • the CCU 26 is a circuit that controls the endoscope 22.
  • the CCU 26 controls the actuator 22d for adjusting the focal length in response to an instruction input from the operation unit 27 (not shown).
  • the CCU 26 is connected to the image processing unit 28 and the light source control unit 25, and outputs an imaging signal input from the endoscope 22 to the light source control unit 25 and the image processing unit 28.
  • the light source control unit 25 is a circuit that controls the light source device 24.
  • the light source control unit 25 is connected to the light source device 24.
  • the light source control unit 25 calculates the brightness of the captured image based on the imaging signal input from the CCU 26, derives the appropriate brightness of the illumination light from the brightness of the captured image, and adjusts the brightness of the illumination light. Control signal is output to the light source device 24.
  • the operation unit 27 is configured to be able to input various control information and give instructions to the endoscope processor 23.
  • the various types of control information are, for example, ENH, an enlargement / reduction processing magnification value (hereinafter referred to as “ZOOM”), a symbol indicating ON / OFF of the narrowband observation mode (hereinafter referred to as “NBI”), ID, and DATE. .
  • the image processing unit 28 is a circuit that performs image processing.
  • the image processing unit 28 includes an image generation unit 28a, an output image generation unit 28b, and a switching output unit 28c.
  • the image generation unit 28a is a circuit that generates an endoscopic image Eb.
  • the image generation unit 28a is connected to the output image generation unit 28b.
  • the image generation unit 28a generates an endoscopic image Eb based on the imaging signal input from the CCU 26.
  • the image generation unit 28a performs correction processing such as contour enhancement processing and enlargement / reduction processing on the endoscopic image Eb, and outputs the corrected endoscopic image Eb to the output image generation unit 28b. To do.
  • the output image generation unit 28b includes a full screen display processing unit 28b1 and a plurality of display processing units 28b2.
  • the full screen display processing unit 28b1 is a circuit that generates the full screen display image S1b (FIG. 5B).
  • the full screen display processing unit 28b1 is connected to the multiple display processing unit 28b2 and the switching output unit 28c.
  • the full screen display processing unit 28b1 includes an additional information unit 29a.
  • the full screen display processing unit 28b1 generates the full screen display image S1b based on the endoscopic image Eb input from the image generation unit 28a and the additional information Vb generated by the processing of the additional information unit 29a. And output to the multiple display processing unit 28b2 and the switching output unit 28c.
  • the additional information section 29a includes information related to control information of the endoscope system 21 that is a non-scanning endoscope system.
  • the additional information Vb includes, for example, ENH, ZOOM, NBI, ID, and DATE of the endoscopic image Eb.
  • the additional information Vb is not limited to ENH, ZOOM, NBI, ID, and DATE, and may include other information.
  • the multiple display processing unit 28b2 is a circuit that generates a multiple display image M1b (FIG. 6).
  • the multiple display processing unit 28b2 is connected to the switching output unit 28c.
  • the multiple display processing unit 28b2 can start or stop the operation in accordance with a switching instruction signal input from the switching output unit 28c.
  • the multiple display processing unit 28b2 includes a summarizing unit 29b and a conversion table T2 (FIG. 7B).
  • the multiple display processing unit 28b2 starts its operation in response to a switching instruction signal for switching to the multiple display mode input from the switching output unit 28c, and is summarized with the full screen display image S1b input from the full screen display processing unit 28b1. Based on the summary information Wb summarized by the processing of the unit 29b, a multiple display image M1b is generated and output to the switching output unit 28c.
  • the summarizing unit 29b can extract the additional information Vb from the full-screen display image S1b input from the full-screen display processing unit 28b1, and can generate the summary information Wb based on the extracted additional information Vb by the summarizing process. .
  • the switching output unit 28c is a circuit that switches the image output to the display device 31 to either the full screen display image S1b or the multiple display image M1b.
  • the switching output unit 28 c is connected to the display device 31.
  • the switching output unit 28c When a switching instruction signal for switching to the multiple display mode is input from the display device 31, the switching output unit 28c outputs a switching instruction signal for starting the generation of the multiple display image M1b to the multiple display processing unit 28b2. Then, the operation of the multiple display processing unit 28b2 is started, and the multiple display image M1b input from the multiple display processing unit 28b2 is output to the display device 31 as a second output image.
  • the switching output unit 28c When a switching instruction signal for switching from the endoscope system 11 to the full screen display mode of the endoscope system 21 is input via the display device 31, the switching output unit 28c generates the multiple display image M1b.
  • the display device 31 outputs a switching instruction signal for stopping the display, stops the operation of the multiple display processing unit 28b2, and uses the full screen display image S1b input from the full screen display processing unit 28b1 as a second output image. Output to.
  • the endoscope processor 23 outputs a second output image having the endoscope image Eb based on the imaging signal acquired from the endoscope 22.
  • the second output image is configured to include the endoscope image Eb and the additional information Vb in the full screen display mode that is the first screen display mode, and in the multiple display mode that is the second screen display mode.
  • the endoscope image Eb and summary information Wb obtained by summarizing the additional information Vb are included.
  • the display device 31 includes an image composition unit 32 and a display unit 33.
  • the display device 31 is connected to the endoscope processors 13 and 23, and displays either the first output image or the second output image in the first screen display mode, and in the second screen display mode, A composite image based on the first output image and the second output image is displayed.
  • the image combining unit 32 combines the multiple display image M1a input from the image processing unit 18 of the endoscope system 11 and the multiple display image M1b input from the image processing unit 28 of the endoscope system 21.
  • a circuit for generating a composite image C1 (FIG. 6). More specifically, the image composition unit 32 arranges the multiple display image M1a on the right side and arranges the multiple display image M1b on the left side to generate the composite image C1.
  • the image composition unit 32 is connected to the display unit 33. When a switching instruction signal for switching from the endoscope system 11 to the full screen display mode of the endoscope system 11 is input, the image composition unit 32 displays the full screen display image S1a input from the endoscope system 11. Is output to the display unit 33.
  • the image composition unit 32 is for full screen display input from the endoscope system 21.
  • the image S1b is output to the display unit 33.
  • the image combining unit 32 combines the multiple display images M1a and M1b input from each of the endoscope systems 11 and 21. Then, the composite image C1 is output to the display unit 33.
  • the display unit 33 includes, for example, a liquid crystal display screen whose horizontal width is 16: 9.
  • the display unit 33 can display an image input from the image composition unit 32.
  • the full screen display image S1a is an image for causing the display unit 33 to display the full screen in the full screen display mode of the endoscope system 11.
  • the ratio of the horizontal width to the vertical width of the full-screen display image S1a is 16: 9.
  • the full screen display image S1a includes an endoscopic image Ea and additional information Va.
  • the endoscopic image Ea is disposed at the center of the full-screen display image S1a, and there is a room D1a having a predetermined distance above and below the endoscopic image Ea.
  • the full screen display image S1b is an image for causing the display unit 33 to display the full screen in the full screen display mode of the endoscope system 21.
  • the horizontal width versus vertical width of the full-screen display image S1b is 16: 9.
  • the full screen display image S1b includes an endoscopic image Eb and additional information Vb.
  • the endoscopic image Eb is disposed at the center of the full-screen display image S1b, and there is a room D1b having a predetermined distance above and below the endoscopic image Eb.
  • the composite image C1 is displayed on the display unit 33.
  • the margins D1a and D1b are set in advance by the imaging capabilities of the endoscope systems 11 and 21, such as resolution.
  • the size of the endoscope images Ea and Eb for each of the full-screen display images S1a and S1b is set in advance by the imaging capability of the endoscope systems 11 and 21.
  • FIG. 6 shows a screen configuration example based on the picture-out-picture method.
  • the composite image C1 is an image to be displayed on the display unit 33 in the multiple display mode.
  • a plurality of display images M1a are arranged on the right side of the center, and a plurality of display images M1a are arranged on the left side of the center.
  • a plurality of display images M1a and M1b are arranged side by side.
  • the ratio of the horizontal width to the vertical width of the entire composite image C1 is 16: 4.5.
  • the upper and lower portions of the composite image C1 are non-display areas.
  • the multiple display image M1a has an endoscopic image Ea and summary information Wa
  • the multiple display image M1b has an endoscopic image Eb and summary information Wb.
  • the lengths of the margin portions D2a and D2b are set to be equal to or less than the lengths of the margin portions D1a and D1b.
  • the ratio of the size of the endoscopic images Ea and Eb to each of the multiple display images M1a and M1b is set so that the endoscopic images Ea and Eb are small and difficult to see. It is set to be equal to or greater than the ratio of the size of the endoscopic images Ea and Eb for each of S1b.
  • Each of the summary information Wa and Wb is generated by the summary processing of the summary units 19b and 29b.
  • the summary process is a process for generating each of the summary information Wa and Wb from each of the additional information Va and Vb based on each of the conversion tables T1 and T2.
  • the conversion table T1 includes table information associated with the additional information Va and the summary information Wa.
  • the conversion table T2 includes table information associated with the additional information Vb and the summary information Wb.
  • the summary information Wa, Wb is included in the additional information Va, Vb and includes information that is difficult to grasp from the endoscopic images Ea, Eb.
  • the summary information Wa and Wb includes information for assisting observation.
  • NBI, ID, and DATE are difficult to grasp from the endoscopic image Eb.
  • the summary information Wa is ROT and COL
  • the summary information Wb is NBI and ID.
  • the summary information Wa may be ROT, COL, and ID
  • the summary information Wb may be NBI.
  • the summary information Wa has a smaller amount of information than the additional information Va, and the proportion of the summary information Wa in the first output image in the full-screen display mode is added to the first output image in the multiple display mode. It is smaller than the ratio occupied by the information Va, and the first output image can take a wide display area of the endoscopic image Ea. Similarly, the second output image can take a wide display area of the endoscopic image Eb.
  • table information is set in advance so that duplicate information included in the summary information Wa and not included in the summary information Wb is generated, but the summary units 19b and 29b detect the duplicate information. In such a case, a process for deleting duplicate information from either the summary information Wa or the summary information Wb may be provided.
  • the endoscope has the endoscope images Ea and Eb captured by the endoscopes 12 and 22, respectively, so that the endoscope images Ea and Eb are not difficult to see.
  • the synthesized image C1 in which the summary information Wa and Wb are arranged can be generated without narrowing the display areas of the images Ea and Eb.
  • the display device 31 includes the image composition unit 32, but the image composition unit 132 may be disposed in the endoscope system 11.
  • FIG. 8 is a block diagram showing a schematic configuration of the observation system 101 according to the second embodiment of the present invention.
  • FIG. 9A is a block diagram showing a configuration of the image processing unit 118 of the observation system 101 according to the second embodiment of the present invention.
  • FIG. 9B is a block diagram showing a configuration of the image processing unit 128 of the observation system 101 according to the second embodiment of the present invention.
  • the same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
  • the endoscope processor 113 of the endoscope system 111 can input an external image from the endoscope processor 123 of the external endoscope system 121.
  • An input unit I is included.
  • the endoscope processor 113 is connected to the endoscope processor 123 by the image input unit I.
  • the image processing unit 118 includes an image generation unit 18a, an output image generation unit 18b, and a switching output unit 118c.
  • the configurations of the image generation unit 18a and the output image generation unit 18b are the same as those in the first embodiment, and thus description thereof is omitted.
  • the switching output unit 118c is connected to the display device 131 and outputs an image to be output to the display device 131, either the full-screen display image S1a of the endoscope system 11, an external image of the endoscope processor 23, or a composite image C2. It is a circuit that switches to one.
  • the image composition unit 132 is connected to the image input unit I and the switching output unit 118c.
  • the switching output unit 118c includes an image combining unit 132 that combines the multiple display image M2a and the multiple display image M2b based on the external image.
  • the switching output unit 118 c uses either the full screen display image S ⁇ b> 1 a or the external image as an output image in the full screen display mode.
  • the combined image C2 obtained by combining the multiple display images M2a and M2b is output to the display device 131 as an output image.
  • the switching output unit 118c is connected to the output image generation unit 18a and the image input unit I, and in the first screen display mode, either the full screen display image S1a or the external image is displayed on the display device 131.
  • the composite image C2 obtained by combining the plurality of display images M2a and the external image is output to the display device 131.
  • the image processing unit 128 includes an image generation unit 28a and an output image generation unit 128b.
  • the output image generation unit 128b attaches additional information Vb to the endoscopic image Eb input from the image generation unit 28a by the additional information unit 29a, generates an external image, and transmits the internal image via the image input unit I. Output to the switching output unit 118c of the endoscope processor 123.
  • the display device 131 is configured to display an output image input from the endoscope processor 113.
  • the second embodiment it is possible to generate the composite image C2 in which the summary information Wa is arranged so that the endoscope image Ea and the external image are not easily viewed.
  • FIG. 10 is an explanatory diagram for explaining a screen configuration example of a plurality of display modes of the observation system 101 according to the second embodiment of the present invention.
  • the multiple display images M1a and M1b are arranged with the same size, but in the present embodiment, the horizontal width of the multiple display image M2a Are arranged such that the horizontal width of the plurality of display images M2b becomes larger. Accordingly, the first output image in the multiple display mode is configured to have a larger ratio of the vertical width to the horizontal width than the first output image in the full screen display mode.
  • the multiple display processing unit 18b2 deletes the left and right portions of the full screen display image S1a by a predetermined distance to generate a multiple display image M2a.
  • the image synthesizing unit 132 synthesizes the multiple display image M2a and the multiple display image M2b based on the external image input from the endoscope processor 123, and generates a composite image C2.
  • the observation system 101 can be used as it is without changing the ratio of the horizontal width and the vertical width of the external image, and the composite image C2 having a larger vertical width than the composite image C1 can be arranged.
  • FIG. 11 is an explanatory diagram illustrating a first modification of the screen configuration in the multiple display mode of the observation system 101 according to the second embodiment of the present invention.
  • the multi-display image M2a is generated and arranged by deleting the left and right portions of the full-screen display image S1a by a predetermined distance.
  • the image M3a is generated and arranged in a square shape having the same vertical width and horizontal width.
  • each of the horizontal width and the vertical width of the multiple display image M3a is 6, and the multiple display image M3b
  • the width is deleted by 0.3 and the width is 10 and the height is 6.
  • the horizontal width of the summary information Wa arranged at the left part is 2, and the diameter of the endoscopic image Ea is 4.
  • the horizontal width of the summary information Wa may be 1.5 and the diameter of the endoscopic image Ea may be 4.5.
  • the image compositing unit 132 can use the external image by slightly deleting the left and right portions of the external image, and can generate a composite image C3 larger than the composite image C2.
  • FIG. 12 is an explanatory diagram illustrating a second modification of the screen configuration in the multiple display mode of the observation system 101 according to the second embodiment of the present invention.
  • the summary information Wa is arranged on the left side of the endoscopic image Ea, but as shown in the multiple display image M4a in FIG.
  • the summary information Wa may be arranged below the endoscopic image Ea.
  • the summary information Wa may be arranged on the right side or above the endoscopic image Ea.
  • FIG. 13 is an explanatory diagram illustrating an example of a screen configuration in the multiple display mode of the observation system 1 according to the third embodiment of the present invention.
  • the region where the summary information Wa is arranged is the entire left part of the multiple display image M1a. However, as shown in the multiple display image M5a in FIG. It may be arranged at the upper left of the endoscopic image Ea. Although not shown, the summary information Wa may be arranged at the lower left, upper right, or lower right of the endoscopic image Ea.
  • the third embodiment it is possible to arrange the summary information Wa so that the endoscope image Ea is not difficult to see.
  • FIG. 14 is an explanatory diagram illustrating a screen configuration example of the observation system 1 according to the fourth embodiment of the present invention.
  • the composite image C1 of the first embodiment is an example configured with a picture-out-picture method, but may be configured with a picture-in-picture method.
  • a plurality of display images M1b are arranged as a whole, and a plurality of display images M1a are arranged in a small frame superimposed on the plurality of display images M1b.
  • the fourth embodiment it is possible to generate the composite image C4 in which the multiple display images M1a are arranged so that the multiple display images M1a are not easily viewed.
  • the operation unit 17 is provided in the endoscope processor 13.
  • a switching instruction input for switching to either one of the full screen display mode and the multiple display mode is possible.
  • a certain second operation unit 34 and switching output unit 35 may be provided in the display device 31 (two-dot chain line in FIG. 1).
  • the switching output unit 35 outputs the switching instruction signal to the switching output units 18c and 28c.
  • each of the endoscope processors 13 and 23 performs summary processing and outputs an output image including summary information Wa and Wb.
  • the endoscope processor 13 outputs an output image composed of the endoscope image Ea and the additional information Va
  • the endoscope processor 23 outputs the endoscope image Eb.
  • An output image composed of the summary information Wb may be output, and the display device 31 may display a composite image based on each output image.
  • the endoscope processor 13 outputs an output image having the summary information Wa
  • the endoscope processor 23 outputs an output image having the additional information Vb
  • the display device 31 A composite image based on the output image may be displayed.
  • the screen display mode switching instruction input is performed by the operation unit 17 of the endoscope system 11, but may be configured to be performed by the operation unit 27 of the endoscope system 21. I do not care.
  • the output image generation unit 128b adds the additional information Vb, but the additional information Vb may not be added.
  • the first endoscope system is a scanning endoscope and the second endoscope system is a non-scanning endoscope.
  • the first endoscope system may be a non-scanning endoscope
  • the second endoscope system may be a scanning endoscope.
  • the observation systems 1 and 101 are configured to include a scanning endoscope and a non-scanning endoscope.
  • the scanning endoscope or the non-scanning endoscope is used. It may be configured to have a plurality.
  • the table information of the conversion tables T1, T2, and T3 may be configured to be changeable by inputting instructions from the operation units 17 and 27.
  • the conversion tables T1, T2, and T3 have one type of conversion pattern. However, a plurality of types of conversion patterns may be provided and can be selected by the operation units 17 and 27.
  • Each “unit” in this specification is a conceptual one corresponding to each function of the embodiment, and does not necessarily correspond to a specific hardware or software routine on a one-to-one basis. Therefore, in the present specification, the embodiment has been described assuming a virtual circuit block (unit) having each function of the embodiment.
  • the character information is arranged without narrowing the display area of the endoscopic image so that the endoscopic image does not become difficult to see, including the endoscopic image captured by each of the plurality of endoscopes.
  • An observation system for generating a synthesized image can be provided.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

観察システム1は、第1の画面表示モードにおいて、第1の内視鏡画像と、第1の付加情報と、を含んで構成され、第2の画面表示モードにおいて、第1の内視鏡画像と、第1の付加情報を要約処理した第1の要約情報と、を含んで構成される、第1の出力画像を出力する、第1の内視鏡プロセッサ13と、第2の出力画像を出力する第2の内視鏡プロセッサ23と、第1の画面表示モードにおいて、第1の出力画像又は第2の出力画像のいずれかを表示し、第2の画面表示モードにおいて、第1の出力画像及び第2の出力画像の合成画像を表示する表示装置31と、を有する。

Description

内視鏡プロセッサ及び内視鏡プロセッサを有する観察システム
 本発明は、内視鏡プロセッサ及び内視鏡プロセッサを有する観察システムに関する。
 従来、2つの内視鏡装置によって撮像された内視鏡画像を合成して合成画像を生成し、表示部に合成画像を表示させる観察システムがある。
 例えば、日本国特開2009-39243号公報では、外科用スコープ及び消化器用スコープの各々によって撮像された内視鏡画像に基づき、内視鏡画像が見づらくならないように文字情報を除いて合成画像を生成し、合成画像を表示部に表示させる内視鏡観察装置が開示されている。
 しかしながら、従来の観察システムは、例えば、内視鏡画像の回転角度、被写体の識別番号又は撮影日時等の観察を補助するための文字情報が表示されないため、術者が内視鏡画像の回転角度等を把握することができず、被写体の観察を進める上で不便を生じさせることがある。
 そこで、本発明は、複数の内視鏡の各々によって撮像された内視鏡画像を含み、内視鏡画像が見づらくならないように、内視鏡画像の表示領域を狭めることなく文字情報が配置された合成画像を生成する観察システムを提供することを目的とする。
 本発明の一態様の観察システムは、第1の内視鏡から取得される撮像信号に基づいて、第1の画面表示モードにおいて、第1の内視鏡画像と、第1の付加情報と、を含んで構成され、第2の画面表示モードにおいて、前記第1の内視鏡画像と、前記第1の付加情報を要約処理した第1の要約情報と、を含んで構成される、第1の出力画像を出力する、第1の内視鏡プロセッサと、第2の内視鏡から取得される撮像信号に基づいて、第2の内視鏡画像を含む第2の出力画像を出力する第2の内視鏡プロセッサと、前記第1の内視鏡プロセッサ及び前記第2の内視鏡プロセッサに接続され、前記第1の画面表示モードにおいて、前記第1の出力画像又は前記第2の出力画像のいずれかを表示し、前記第2の画面表示モードにおいて、前記第1の出力画像及び前記第2の出力画像に基づく合成画像を表示する、表示装置と、を有する。
 本発明の一態様の内視鏡プロセッサは、外部の内視鏡システムの内視鏡プロセッサから、外部画像を入力可能である画像入力部と、内視鏡から取得される撮像信号に基づいて内視鏡画像を生成する画像生成部と、前記内視鏡画像及び付加情報を含んで構成される第1の画像と、前記内視鏡画像及び前記付加情報を要約処理した要約情報を含んで構成される第2の画像と、の少なくとも一方を出力する、出力画像生成部と、前記画像入力部と、前記出力画像生成部と、に接続され、第1の画面表示モードにおいて、前記第1の画像又は前記外部画像のいずれか一方を出力し、第2の画面表示モードにおいて、前記第2の画像及び前記外部画像が合成された合成画像を出力する、切替出力部と、を有する。
本発明の第1の実施形態に係わる、観察システムの概略構成を示すブロック図である。 本発明の第1の実施形態に係わる、観察システムの走査型内視鏡装置のアクチュエータの構成を示す断面図である。 本発明の第1の実施形態に係わる、観察システムの内視鏡システムの渦巻き状の走査経路を説明する説明図である。 本発明の第1の実施形態に係わる、観察システムの内視鏡システムの渦巻き状の走査経路を説明する説明図である。 本発明の第1の実施形態に係わる、観察システムの画像処理部の構成を示すブロック図である。 本発明の第1の実施形態に係わる、観察システムの画像処理部の構成を示すブロック図である。 本発明の第1の実施形態に係わる、観察システムの全画面表示モードの画面構成例を説明する説明図である。 本発明の第1の実施形態に係わる、観察システムの全画面表示モードの画面構成例を説明する説明図である。 本発明の第1の実施形態に係わる、観察システムの複数表示モードの画面構成例を説明する説明図である。 本発明の第1の実施形態に係わる、観察システムの変換テーブルの例を示す図である。 本発明の第1の実施形態に係わる、観察システムの変換テーブルの例を示す図である。 本発明の第2の実施形態に係わる、観察システムの概略構成を示すブロック図である。 本発明の第2の実施形態に係わる、観察システムの画像処理部の構成を示すブロック図である。 本発明の第2の実施形態に係わる、観察システムの画像処理部の構成を示すブロック図である。 本発明の第2の実施形態に係わる、観察システムの複数表示モードの画面構成例を説明する説明図である。 本発明の第2の実施形態に係わる、観察システムの複数表示モードの画面構成の変形例1を説明する説明図である。 本発明の第2の実施形態に係わる、観察システムの複数表示モードの画面構成の例を説明する説明図である。 本発明の第3の実施形態に係わる、観察システムの画面構成例を説明する説明図である。 本発明の第4の実施形態に係わる、観察システムの画面構成例を説明する説明図である。
 以下、図面を参照しながら、本発明の実施の形態を説明する。
 (第1の実施形態)
 図1は、本発明の第1の実施形態に係わる、観察システム1の概略構成を示すブロック図である。
 観察システム1は、内視鏡システム11、21及び表示装置31を有して構成される。内視鏡システム11、21の各々は、表示装置31に接続される。本観察システム1では、内視鏡システム11が有する内視鏡12、22の各々の挿入部12a、22aを被写体内に挿入して被写体を撮像することができ、さらに、被写体内において、内視鏡22の挿入部22aによって内視鏡12の挿入部12aを撮像することもできる。
 内視鏡システム11は、走査型内視鏡システムによって構成される。第1の内視鏡システムである内視鏡システム11は、第1の内視鏡である内視鏡12及び第1の内視鏡プロセッサである内視鏡プロセッサ13を有する。
 内視鏡プロセッサ13は、光源ユニット14と、ドライバユニット15と、検出ユニット16と、操作部17と、画像処理部18と、を有して構成される。
 光源ユニット14は、赤色、緑色及び青色のレーザー光を発生させることができるように構成される。光源ユニット14は、照明用光ファイバ14aに接続される。光源ユニット14は、図示しない赤色、緑色及び青色の各々のレーザー光源からレーザー光を順次繰り返して発生し、図示しない合波器を介し、レーザー光を照明用光ファイバ14aに入射する。照明用光ファイバ14aは、内視鏡12内の照明用光ファイバ14aの照射側端部14bに、光源ユニット14から入射されたレーザー光を導光可能である。
 ドライバユニット15は、内視鏡12のアクチュエータ15aを駆動し、照明用光ファイバ14aの照射側端部14bを揺動させる回路である。ドライバユニット15は、アクチュエータ15aに接続される。ドライバユニット15は、図示しない信号発生器によって駆動信号AX、AYを生成し、アクチュエータ15aに出力する。駆動信号AXは、照明用光ファイバ14aの照射側端部14bをX軸方向へ搖動できるように、出力される。
 駆動信号AXは、例えば、下記数式(1)によって規定される。下記数式(1)において、X(t)は時刻tにおける信号レベルであり、AXは時刻tに依存しない振幅値であり、G(t)は正弦波sin(2πft)を変調する所定の関数である。
 X(t)=AX×G(t)×sin(2πft)…(1)
 駆動信号AYは、照明用光ファイバ14aの照射側端部14bをY軸方向へ搖動できるように出力される。駆動信号AYは、例えば、下記数式(2)によって規定される。下記数式(2)において、Y(t)は時刻tにおける信号レベルであり、AYは時刻tに依存しない振幅値であり、G(t)は正弦波sin(2πft+φ)を変調する所定の関数であり、φは位相である。
 Y(t)=AY×G(t)×sin(2πft+φ)…(2)
 図2は、本発明の第1の実施形態に係わる、観察システム1の内視鏡システム11のアクチュエータ15aの構成を示す断面図である。
 内視鏡12は、被写体に挿入され、光源ユニット14によって発せられた光を被写体に照射し、被写体の反射光を撮像できるように構成される。内視鏡12は、挿入部12aと、アクチュエータ15aと、レンズ12bと、受光部12cと、を有して構成される。
 挿入部12aは、細長状に形成され、被写体内に挿入可能である。
 アクチュエータ15aは、照明用光ファイバ14aの照射側端部14bを揺動させ、レーザー光の照射位置を所定の操作経路に沿って移動させることができるように構成される。所定の操作経路は、例えば、渦巻き状の操作経路である。アクチュエータ15aは、図2に示すように、フェルール15bと、フェルール15bの外周に設けられた複数の圧電素子15cと、を有して構成される。
 圧電素子15cの各々は、予め定められた分極方向を有し、ドライバユニット15から入力される駆動信号AX、AYに応じて振動し、照明用光ファイバ14aの照射側端部14bを揺動させる。
 レンズ12bは、挿入部12aの先端に設けられ、照明用光ファイバ14aの照射側端部14bから照射された照明光を被写体に照射できるように構成される。
 受光部12cは、挿入部12aの先端に設けられ、被写体の反射光を受光する。受光された被写体の反射光は、受光用光ファイバ12dを介し、内視鏡プロセッサ13の検出ユニット16に出力される。
 図3A及び図3Bは、本発明の第1の実施形態に係わる、観察システム1の内視鏡システム11の渦巻き状の走査経路を説明する説明図である。
 ドライバユニット15が信号レベルを増加させながら駆動信号AX、AYを出力すると、照明用光ファイバ14aは、アクチュエータ15aによって揺動され、照明用光ファイバ14aのレーザー光の照射位置は、図3AのA1からB1に示されるように、漸次中心から遠ざかる渦巻き状の走査経路に沿って移動する。その後、ドライバユニット15が信号レベルを減少させながら駆動信号AX、AYを出力すると、照明用光ファイバ14aのレーザー光の照射位置は、図3BのB2からA2に示されるように、漸次中心へ近づく渦巻き状の走査経路に沿って移動する。これにより、赤色、緑色及び青色の各レーザー光が、渦巻き状に被写体に照射され、被写体の反射光が受光部12cに受光される。
 図1に戻り、検出ユニット16は、反射光を検出する回路である。検出ユニット16は、図示しない光電変換素子を有して構成される。検出ユニット16は、画像処理部18に接続される。検出ユニット16は、受光用光ファイバ12dから入力される被写体の反射光を撮像信号に変換し、画像処理部18に出力する。
 第1の操作部17は、例えば、切替スイッチ等によって構成され、第1の画面表示モードである全画面表示モード、又は、第2の画面表示モードである複数表示モードのいずれかの画面表示モードに切り替えるための切替え指示入力が可能である。より具体的には、操作部17は、内視鏡システム11の全画面表示モード、内視鏡システム21の全画面表示モード、又は、複数表示モードのいずれかの画面表示モードの切替え指示入力が可能である。複数表示モードは、例えば、ピクチャインピクチャ方式又はピクチャアウトピクチャ方式によって表示されるモードである。操作部17は、画像処理部18内の切替出力部18c(図4A)に接続される。画面表示モードの切替え指示入力があると、操作部17は、画面表示モードの切替え指示信号を切替出力部18cに出力する。
 また、操作部17は、各種の制御情報を入力し、内視鏡プロセッサ13に指示を与えることができるように構成される。各種の制御情報は、は、例えば、輪郭強調処理のモードを示す輪郭強調モード値(以下「ENH」という)、画像回転処理の回転角度を示す回転角度値(以下「ROT」という)、輝度調整処理の設定値を示す輝度設定値(以下「BRT」という)、アイリス調整処理の設定値であるアイリス値(以下「IRIS」という)、色彩調整処理のモードを示す色彩調整モード値(以下「COL」という)、患者の識別番号(以下「ID」という)及び撮影日(以下「DATE」という)が含まれる。なお、各種の設定情報は、ENH、ROT、BRT、IRIS、COL、ID及びDATEに限られず、他の情報を含んでも構わない。
 図4Aは、本発明の第1の実施形態に係わる、観察システム1の画像処理部18の構成を示すブロック図である。図4Bは、本発明の第1の実施形態に係わる、観察システム1の画像処理部28の構成を示すブロック図である。図4A及び図4Bの1点鎖線は、画面表示モードの切替え指示信号の流れを示す。図5A及び図5Bは、本発明の第1の実施形態に係わる、観察システム1の全画面表示モードの画面構成例を説明する説明図である。図5A、図5B及び図6における内視鏡画像Ea、Ebでは、表示枠の内側が省略され、内視鏡画像Ea、Ebの表示枠のみが示される。図6は、本発明の第1の実施形態に係わる、観察システム1の複数表示モードの画面構成例を説明する説明図である。図7A及び図7Bは、本発明の第1の実施形態に係わる、観察システム1の変換テーブルT1、T2の例を示す図である。
 画像処理部18は、画像処理を行う回路である。画像処理部18は、画像生成部18aと、出力画像生成部18bと、切替出力部18cと、を有して構成される。
 画像生成部18aは、検出ユニット16から入力される撮像信号に基づいて内視鏡画像Ea(図5A)を生成する回路である。画像生成部18aは、出力画像生成部18bに接続される。画像生成部18aは、検出ユニット16から入力される撮像信号に基づき、図示しないマッピングテーブルを参照し、1フレームずつ内視鏡画像Eaを生成する。画像生成部18aは、さらに、例えば、輪郭強調処理、画像回転処理、輝度調整処理、アイリス調整処理、色彩調整処理等の補正処理を内視鏡画像Eaに対して行い、補正処理がされた内視鏡画像Eaを出力画像生成部18bに出力する。
 出力画像生成部18bは、内視鏡画像Ea及び付加情報Vaを含む全画面表示用画像S1aと、内視鏡画像Ea及び付加情報Vaを要約処理した要約情報Waを含む複数表示用画像M1aと、の少なくとも一方を切替出力部18cに出力する。出力画像生成部18bは、全画面表示処理部18b1と、複数表示処理部18b2と、を有して構成される。
 全画面表示処理部18b1は、全画面表示用画像S1a(図5A)を生成する回路である。全画面表示処理部18b1は、複数表示処理部18b2及び切替出力部18cに接続される。全画面表示処理部18b1は、付加情報部19aを有して構成される。全画面表示処理部18b1は、画像生成部18aから入力される内視鏡画像Eaと、付加情報部19aの処理によって生成される付加情報Va(図5A)とに基づいて、全画面表示用画像S1aを生成し、複数表示処理部18b2及び切替出力部18cに出力する。
 付加情報部19aは、走査型内視鏡システムである内視鏡システム11内における被写体の観察に関する各種の制御情報を取得することができ、取得された制御情報に基づいて、内視鏡画像Eaの観察を補助するための付加情報Vaを生成することができるように構成される。付加情報Vaは、文字情報によって構成される。付加情報Vaは、例えば、内視鏡画像Eaに関するENH、ROT、BRT、IRIS、COL、ID及びDATEが含まれる。なお、付加情報Vaは、ENH、ROT、BRT、IRIS、COL、ID及びDATEに限られず、他の情報を含んでも構わない。
 複数表示処理部18b2は、後述する複数表示用画像M1a(図6)を生成する回路である。複数表示処理部18b2は、切替出力部18cに接続される。複数表示処理部18b2は、切替出力部18cから入力される切替え指示信号により、動作の開始又は停止が可能である。複数表示処理部18b2は、要約部19b及び変換テーブルT1(図7A)を有して構成される。複数表示処理部18b2は、切替出力部18cから入力される複数表示モードに切り替えるための切替え指示信号によって動作を開始し、全画面表示処理部18b1から入力される全画面表示用画像S1aに含まれる内視鏡画像Eaと、要約部19bの処理によって要約処理された要約情報Wa(図6)とに基づいて、複数表示用画像M1aを生成し、切替出力部18cに出力する。
 要約部19bは、全画面表示処理部18b1から入力される全画面表示用画像S1aから付加情報Vaを抽出し、後述する要約処理により、抽出された付加情報Vaに基づく要約情報Waを生成可能である。
 切替出力部18cは、表示装置31に出力する画像を、全画面表示用画像S1a又は複数表示用画像M1aのいずれか一方に切り替える回路である。切替出力部18cは、表示装置31に接続される。操作部17から内視鏡システム11の全画面表示モードに切り替えるための切替え指示信号の入力があると、切替出力部18cは、複数表示用画像M1aの生成を停止させるための切替え指示信号を出力して複数表示処理部18b2の動作を停止させ、全画面表示処理部18b1から入力される全画面表示用画像S1aを、第1の出力画像として、表示装置31に出力する。操作部17から複数表示モードに切り替えるための切替え指示信号の入力があると、切替出力部18cは、複数表示処理部18b2に、複数表示用画像M1aの生成を開始させるための切替え指示信号を出力し、複数表示処理部18b2の動作を開始させ、複数表示処理部18b2から入力される複数表示用画像M1aを、第1の出力画像として、表示装置31に出力する。
 操作部17から内視鏡システム11の画面表示モードの切替え指示信号があると、切替出力部18cは、表示装置31と、表示装置31を介して内視鏡システム21にも、画面表示モードを切り替えるための切替え指示信号を出力する。
 すなわち、内視鏡プロセッサ13は、内視鏡12から取得される撮像信号に基づいて、全画面表示モードにおいて、内視鏡画像Eaと、付加情報Vaと、を含んで構成され、複数表示モードにおいて、内視鏡画像Eaと、付加情報Vaを要約処理した要約情報Waと、を含んで構成される、第1の出力画像を表示装置31に出力する。
 図1に戻り、内視鏡システム21は、非走査型内視鏡システムによって構成される。内視鏡システム21は、第2の内視鏡である内視鏡22と、第2の内視鏡プロセッサである内視鏡プロセッサ23と、光源装置24と、を有する。内視鏡22は、内視鏡プロセッサ23に接続される。光源装置24は、内視鏡22及び内視鏡プロセッサ23に接続される。
 光源装置24は、例えば、LED等によって白色光又は狭帯域光を含む照明光を発生させることができるように構成される。光源装置24は、光ファイバ24aによって内視鏡22に接続される。また、光源装置24は、内視鏡プロセッサ23に接続される。光源装置24は、内視鏡プロセッサ23の光源制御部25の制御の下、照明光を発生させ、照明光を内視鏡22のライトガイド22bに導光できるように構成される。
 内視鏡22は、被写体に挿入され、光源装置24によって発せられた光を被写体に照射し、被写体の反射光を撮像できるように構成される。内視鏡22は、挿入部22aと、ライトガイド22bと、レンズ22cと、アクチュエータ22dと、撮像素子22eとを有して構成される。
 挿入部22aは、細長状に形成され、被写体内に挿入可能である。
 ライトガイド22bは、挿入部22aの先端から光源装置24によって発せられた光を被写体に照射できるように構成される。
 レンズ22cは、挿入部22aの先端に光軸方向に沿って複数枚設けられ、被写体の反射光を取込み可能である。
 アクチュエータ22dは、内視鏡プロセッサ23のCCU26に接続され、CCU26の制御の下、複数枚設けられたレンズ22cを光軸方向に沿って移動させることによって、レンズ22cの被写体に対する焦点距離を調整可能である。
 撮像素子22eは、CCD等の光電変換素子によって構成され、撮像面に投影された被写体の反射光を撮像信号に変換可能である。撮像素子22eは、CCU26に接続され、撮像信号をCCU26に出力する。
 内視鏡プロセッサ23は、CCU26と、光源制御部25と、画像処理部28と、を有して構成される。
 CCU26は、内視鏡22の制御を行う回路である。CCU26は、図示しない操作部27の指示入力に応じ、焦点距離を調整するためのアクチュエータ22dの制御を行う。CCU26は、画像処理部28及び光源制御部25に接続され、内視鏡22から入力された撮像信号を光源制御部25及び画像処理部28に出力する。
 光源制御部25は、光源装置24を制御する回路である。光源制御部25は、光源装置24に接続される。光源制御部25は、CCU26から入力される撮像信号に基づいて撮像画像の明るさを算出し、撮像画像の明るさから適切な照明光の明るさを導出し、照明光の明るさを調整するための制御信号を光源装置24に出力する。
 操作部27は、各種の制御情報を入力し、内視鏡プロセッサ23に指示を与えることができるように構成される。各種の制御情報は、例えば、ENH、拡大縮小処理の拡大倍率値(以下「ZOOM」という)、狭帯域観察モードのON/OFFを示す記号(以下「NBI」という)、ID及びDATE、である。
 図4Bに示すように、画像処理部28は、画像処理を行う回路である。画像処理部28は、画像生成部28aと、出力画像生成部28bと、切替出力部28cと、を有して構成される。
 画像生成部28aは、内視鏡画像Ebを生成する回路である。画像生成部28aは、出力画像生成部28bに接続される。画像生成部28aは、CCU26から入力される撮像信号に基づいて内視鏡画像Ebを生成する。画像生成部28aは、さらに、例えば、輪郭強調処理、拡大縮小処理等の補正処理を内視鏡画像Ebに対して行い、補正処理がされた内視鏡画像Ebを出力画像生成部28bに出力する。
 出力画像生成部28bは、全画面表示処理部28b1と、複数表示処理部28b2とを有して構成される。
 全画面表示処理部28b1は、全画面表示用画像S1b(図5B)を生成する回路である。全画面表示処理部28b1は、複数表示処理部28b2及び切替出力部28cに接続される。全画面表示処理部28b1は、付加情報部29aを有して構成される。全画面表示処理部28b1は、画像生成部28aから入力される内視鏡画像Ebと、付加情報部29aの処理によって生成される付加情報Vbとに基づいて、全画面表示用画像S1bを生成し、複数表示処理部28b2及び切替出力部28cに出力する。
 付加情報部29aは、非走査型内視鏡システムである内視鏡システム21の制御情報に関する情報が含まれる。付加情報Vbは、例えば、内視鏡画像EbのENH、ZOOM、NBI、ID及びDATE、が含まれる。なお、付加情報Vbは、ENH、ZOOM、NBI、ID及びDATEに限られず、他の情報を含んでも構わない。
 複数表示処理部28b2は、複数表示用画像M1b(図6)を生成する回路である。複数表示処理部28b2は、切替出力部28cに接続される。複数表示処理部28b2は、切替出力部28cから入力される切替え指示信号により、動作の開始又は停止が可能である。複数表示処理部28b2は、要約部29b及び変換テーブルT2(図7B)を有して構成される。複数表示処理部28b2は、切替出力部28cから入力される複数表示モードに切り替えるための切替え指示信号によって動作を開始し、全画面表示処理部28b1から入力される全画面表示用画像S1bと、要約部29bの処理によって要約された要約情報Wbとに基づいて、複数表示用画像M1bを生成し、切替出力部28cに出力する。
 要約部29bは、全画面表示処理部28b1から入力される全画面表示用画像S1bから付加情報Vbを抽出し、要約処理により、抽出された付加情報Vbに基づいて要約情報Wbを生成可能である。
 切替出力部28cは、表示装置31に出力する画像を、全画面表示用画像S1b又は複数表示用画像M1bのいずれか一方に切り替える回路である。切替出力部28cは、表示装置31に接続される。表示装置31から複数表示モードに切り替えるための切替え指示信号の入力があると、切替出力部28cは、複数表示処理部28b2に、複数表示用画像M1bの生成を開始させるための切替え指示信号を出力し、複数表示処理部28b2の動作を開始させ、複数表示処理部28b2から入力される複数表示用画像M1bを第2の出力画像として、表示装置31に出力する。また、表示装置31を介し、内視鏡システム11から内視鏡システム21の全画面表示モードに切り替えるための切替え指示信号の入力があると、切替出力部28cは、複数表示用画像M1bの生成を停止させるための切替え指示信号を出力して複数表示処理部28b2の動作を停止させ、全画面表示処理部28b1から入力される全画面表示用画像S1bを第2の出力画像として、表示装置31に出力する。
 すなわち、内視鏡プロセッサ23は、内視鏡22から取得される撮像信号に基づいて、内視鏡画像Ebを有する第2の出力画像を出力する。第2の出力画像は、第1の画面表示モードである全画面表示モードにおいて、内視鏡画像Ebと、付加情報Vbとを含んで構成され、第2の画面表示モードである複数表示モードにおいて、内視鏡画像Ebと、付加情報Vbを要約処理した要約情報Wbとを含んで構成される。
 図1に戻り、表示装置31は、画像合成部32及び表示部33を有して構成される。表示装置31は、内視鏡プロセッサ13、23に接続され、第1の画面表示モードにおいて、第1の出力画像又は第2の出力画像のいずれかを表示し、第2の画面表示モードにおいて、第1の出力画像及び第2の出力画像に基づく合成画像を表示する。
 画像合成部32は、内視鏡システム11の画像処理部18から入力される複数表示用画像M1aと、内視鏡システム21の画像処理部28から入力される複数表示用画像M1bとを合成し、合成画像C1(図6)を生成する回路である。より具体的には、画像合成部32は、複数表示用画像M1aを右側に配置し、複数表示用画像M1bを左側に配置し、合成画像C1を生成する。画像合成部32は、表示部33に接続される。内視鏡システム11から内視鏡システム11の全画面表示モードに切り替えるための切替え指示信号の入力があると、画像合成部32は、内視鏡システム11から入力される全画面表示用画像S1aを表示部33に出力する。また、内視鏡システム11から内視鏡システム21の全画面表示モードに切り替えるための切替え指示信号の入力があると、画像合成部32は、内視鏡システム21から入力される全画面表示用画像S1bを表示部33に出力する。内視鏡システム11から複数表示モードに切り替えるための切替え指示信号の入力があると、画像合成部32は、内視鏡システム11、21の各々から入力される複数表示用画像M1a、M1bを合成し、合成画像C1を表示部33に出力する。
 表示部33は、例えば、横幅対縦幅が16:9である液晶表示画面を有して構成される。表示部33は、画像合成部32から入力される画像を表示可能である。
 (画面構成)
 本実施形態の観察システム1の画面構成について説明をする。
 全画面表示モードでは、全画面表示用画像S1a、S1bのいずれか一方が表示部33に全画面表示される。
 図5Aに示すように、全画面表示用画像S1aは、内視鏡システム11の全画面表示モードにおいて、表示部33に全画面表示させるための画像である。図5Aでは、全画面表示用画像S1aの横幅対縦幅の比は、16:9である。全画面表示用画像S1aは、内視鏡画像Ea及び付加情報Vaを有して構成される。内視鏡画像Eaは、全画面表示用画像S1aの中央に配置され、内視鏡画像Eaの上方及び下方の各々には、所定距離の余地部D1aがある。図5Aでは、付加情報Vaは、ENH=43、ROT=90、BRT=10、IRIS=P(PEEKを示す)、COL=1、ID=111、DATE=YYYY/MM/DD(YYYYは西暦、MMは月、DDは日を表す)、が表される。
 図5Bに示すように、全画面表示用画像S1bは、内視鏡システム21の全画面表示モードにおいて、表示部33に全画面表示させるための画像である。図5Bでは、全画面表示用画像S1bの横幅対縦幅は、16:9である。全画面表示用画像S1bは、内視鏡画像Eb及び付加情報Vbを有して構成される。
 内視鏡画像Ebは、全画面表示用画像S1bの中央に配置され、内視鏡画像Ebの上方及び下方の各々には、所定距離の余地部D1bがある。
 付加情報Vbは、図5Bでは、ID=111、DATE=YYYY/MM/DD、ENH=A3、NBI=ON、ZOOM=2.0、である。
 複数表示モードでは、合成画像C1が表示部33に表示される。
 余地部D1a、D1bは、内視鏡システム11、21における、例えば、解像度等の撮像能力によって予め設定される。言い換えれば、全画面表示用画像S1a、S1bの各々に対する内視鏡画像Ea、Ebの大きさは、内視鏡システム11、21の撮像能力によって予め設定される。
 図6は、ピクチャアウトピクチャ方式による画面構成例を示す。図6に示すように、合成画像C1は、複数表示モードにおいて、表示部33に表示させるための画像である。合成画像C1は、中央よりも右側に複数表示用画像M1aを配置し、中央よりも左側に複数表示用画像M1aを配置している。合成画像C1では、複数表示用画像M1a、M1bが横並びに配置される。合成画像C1全体の横幅対縦幅の比は、16:4.5である。合成画像C1の上方及び下方は、非表示領域である。複数表示用画像M1aは、内視鏡画像Ea及び要約情報Waを有し、複数表示用画像M1bは、内視鏡画像Eb及び要約情報Wbを有する。
 内視鏡画像Eaの上方及び下方の各々には、所定距離の余地部D2aがあってもよい。また、内視鏡画像Ebの上方及び下方の各々には、所定距離の余地部D2bがあってもよい。余地部D2a、D2bの各々の長さは、余地部D1a、D1bの長さ以下に設定される。言い換えれば、内視鏡画像Ea、Ebが小さくなって見づらくならないように、複数表示用画像M1a、M1bの各々に対する内視鏡画像Ea、Ebの大きさの割合は、全画面表示用画像S1a、S1bの各々に対する内視鏡画像Ea、Ebの大きさの割合以上に設定される。
 要約情報Wa、Wbの各々は、要約部19b、29bの要約処理によって生成される。
 要約処理は、変換テーブルT1、T2の各々に基づいて、付加情報Va、Vbの各々から要約情報Wa、Wbの各々を生成する処理である。
 変換テーブルT1は、付加情報Va及び要約情報Waに対応付けられたテーブル情報を有して構成される。また、変換テーブルT2は、付加情報Vb及び要約情報Wbに対応付けられたテーブル情報を有して構成される。
 例えば、付加情報Vaとして、ENH=43、ROT=90、BRT=10、IRIS=P、COL=1、ID=111、DATE=YYYY/MM/DDが設定されているとき、要約情報Waは、ROT=90、COL=1、に設定される(図7A)。
 また、例えば、付加情報Vbとして、ID=111、DATE=YYYY/MM/DD、ENH=A3、NBI=ON、ZOOM=2.0が設定されているとき、要約情報Wbは、ID=111、NBI=ON、に設定される(図7B)。
 要約情報Wa、Wbは、付加情報Va、Vbに含まれ、かつ内視鏡画像Ea、Ebから把握が困難である情報が含まれる。そして、要約情報Wa、Wbには、観察を補助するための情報が含まれる。
 例えば、付加情報VaであるENH、ROT、BRT、IRIS、COL、ID及びDATEのうち、ROT、COL、IDは、内視鏡画像Eaから把握することができない。
 例えば、付加情報VbであるENH、ZOOM、NBI、ID及びDATEのうち、NBI、ID及びDATEは、内視鏡画像Ebから把握が困難である。
 したがって、本実施形態では、要約情報WaはROT及びCOLであり、要約情報WbはNBI、IDである。なお、逆に、要約情報WaはROT、COL、IDであり、要約情報WbはNBIであっても構わない。
 これにより、要約情報Waは、付加情報Vaよりも情報量が少なく、全画面表示モードにおける第1の出力画像に占める要約情報Waの占める割合は、複数表示モードにおける第1の出力画像に占める付加情報Vaの占める割合よりも小さく、第1の出力画像は、内視鏡画像Eaの表示領域を広く取ることが可能である。また、第2の出力画像も、同様に、内視鏡画像Ebの表示領域を広く取ることが可能である。
 なお、変換テーブルT1、T2では、要約情報Waに含まれ、かつ要約情報Wbに含まれる重複情報が生じないように予めテーブル情報が設定されるが、要約部19b、29bは、重複情報を検出したときに要約情報Wa又は要約情報Wbのいずれか一方から重複情報を削除する処理を有しても構わない。
 上述の第1の実施形態によれば、内視鏡12、22の各々によって撮像された内視鏡画像Ea、Ebを有し、内視鏡画像Ea、Ebが見づらくならないように、内視鏡画像Ea、Ebの表示領域を狭めることなく要約情報Wa、Wbが配置された合成画像C1を生成することができる。
 (第2の実施形態)
 第1の実施形態では、表示装置31が画像合成部32を有しているが、画像合成部132は、内視鏡システム11内に配置されても構わない。
 図8は、本発明の第2の実施形態に係わる、観察システム101の概略構成を示すブロック図である。図9Aは、本発明の第2の実施形態に係わる、観察システム101の画像処理部118の構成を示すブロック図である。図9Bは、本発明の第2の実施形態に係わる、観察システム101の画像処理部128の構成を示すブロック図である。第2の実施形態の説明では、第1の実施形態と同じ構成については、同じ符号を付し、説明を省略する。
 図8に示すように、第2の実施形態では、内視鏡システム111の内視鏡プロセッサ113は、外部の内視鏡システム121の内視鏡プロセッサ123から、外部画像を入力可能である画像入力部Iを有して構成される。内視鏡プロセッサ113は、画像入力部Iによって内視鏡プロセッサ123に接続される。
 図9Aに示すように、画像処理部118は、画像生成部18aと、出力画像生成部18bと、切替出力部118cと、を有して構成される。画像生成部18aと、出力画像生成部18bと、の構成は、第1の実施形態と同じであるため、説明を省略する。
 切替出力部118cは、表示装置131に接続され、表示装置131に出力する画像を、内視鏡システム11の全画面表示用画像S1a、内視鏡プロセッサ23の外部画像又は合成画像C2のいずれか1つに切り替える回路である。画像合成部132は、画像入力部I及び切替出力部118cに接続される。切替出力部118cは、複数表示用画像M2a及び外部画像に基づく複数表示用画像M2bを合成する画像合成部132を有する。
 切替出力部118cは、操作部17から入力される画面表示モードの切替え指示信号に応じ、全画面表示モードにおいて、全画面表示用画像S1a又は外部画像のいずれか一方を、出力画像として、表示装置131に出力し、複数表示モードにおいて、複数表示用画像M2a、M2bが合成された合成画像C2を、出力画像として、表示装置131に出力する。
 すなわち、切替出力部118cは、出力画像生成部18aと、画像入力部Iとに接続され、第1の画面表示モードにおいて、全画面表示用画像S1a又は外部画像のいずれか一方を表示装置131に出力し、第2の画面表示モードにおいて、複数表示用画像M2a及び外部画像が合成された合成画像C2を表示装置131に出力する。
 図9Bに示すように、画像処理部128は、画像生成部28a及び出力画像生成部128bを有して構成される。
 出力画像生成部128bは、画像生成部28aから入力される内視鏡画像Ebに対し、付加情報部29aにより、付加情報Vbを付し、外部画像を生成し、画像入力部Iを介し、内視鏡プロセッサ123の切替出力部118cに出力をする。
 図8に戻り、表示装置131は、内視鏡プロセッサ113から入力された出力画像を表示できるように構成される。
 第2の実施形態によれば、内視鏡画像Ea及び外部画像が見づらくならないように要約情報Waが配置された合成画像C2を生成することができる。
 (第2の実施形態の画面構成例)
 本実施形態の観察システム1の画面構成について説明をする。
 図10は、本発明の第2の実施形態に係わる、観察システム101の複数表示モードの画面構成例を説明する説明図である。
 第1の実施形態における複数表示モードの画面構成例の合成画像C1では、複数表示用画像M1a、M1bの各々が同じ大きさによって配置されるが、本実施形態では、複数表示用画像M2aの横幅よりも複数表示用画像M2bの横幅が大きくなるように配置される。したがって、複数表示モードにおける第1の出力画像は、全画面表示モードにおける第1の出力画像よりも、横幅に対する縦幅の比が大きく構成される。
 複数表示処理部18b2は、全画面表示用画像S1aの左右部を所定距離だけ削除し、複数表示用画像M2aを生成する。
 画像合成部132は、複数表示用画像M2a及び内視鏡プロセッサ123から入力される外部画像に基づく複数表示用画像M2bを合成し、合成画像C2を生成する。
 これにより、観察システム101は、外部画像の横幅と縦幅の比を変更することなくそのまま使用することができ、合成画像C1よりも縦幅の大きな合成画像C2を配置することができる。
 (第2の実施形態の画面構成の変形例1)
 図11は、本発明の第2の実施形態に係わる、観察システム101の複数表示モードの画面構成の変形例1を説明する説明図である。
 第2の実施形態の画面構成例では、複数表示用画像M2aは、全画面表示用画像S1aの左右部を所定距離だけ削除して生成されて配置されるが、本実施形態では、複数表示用画像M3aは、縦幅と横幅が等しい正方形状に生成されて配置される。
 図11に示すように、合成画像C3全体の横幅が16、縦幅が9であるとき、複数表示用画像M3aの横幅と縦幅の各々が6であり、複数表示用画像M3bは左右部が0.3ずつ削除されて横幅が10、縦幅が6である。また、複数表示用画像M3aでは、左部に配置される要約情報Waの横幅が2であり、内視鏡画像Eaの直径は4である。なお、要約情報Waの横幅を1.5とし、内視鏡画像Eaの直径を4.5としても構わない。
 これにより、画像合成部132は、外部画像の左右部を僅かに削除するだけで外部画像を使用することができ、合成画像C2よりも大きな合成画像C3を生成することができる。
 (第2の実施形態の画面構成の変形例2)
 図12は、本発明の第2の実施形態に係わる、観察システム101の複数表示モードの画面構成の変形例2を説明する説明図である。
 第2の実施形態の画面構成の変形例1の複数表示用画像M3aでは、要約情報Waは、内視鏡画像Eaの左方に配置されるが、図12の複数表示用画像M4aに示すように、要約情報Waは、内視鏡画像Eaの下方に配置されても構わない。なお、図示はしないが、要約情報Waは、内視鏡画像Eaの右方や上方に配置されても構わない。
 (第3の実施形態)
 図13は、本発明の第3の実施形態に係わる、観察システム1の複数表示モードの画面構成の例を説明する説明図である。
 第1の実施形態における画面構成例では、要約情報Waを配置する領域は、複数表示用画像M1aの左部全体であるが、図13の複数表示用画像M5aに示すように、要約情報Waは、内視鏡画像Eaの左上方に配置されても構わない。なお、図示はしないが、要約情報Waは、内視鏡画像Eaの左下方、右上方又は右下方に配置されても構わない。
 第3の実施形態によれば、内視鏡画像Eaが見づらくならないように要約情報Waを配置することができる。
 (第4の実施形態)
 図14は、本発明の第4の実施形態に係わる、観察システム1の画面構成例を説明する説明図である。
 第1の実施形態の合成画像C1は、ピクチャアウトピクチャ方式で構成された例であるが、ピクチャインピクチャ方式で構成されても構わない。図14における合成画像C4では、複数表示用画像M1bが全体に配置され、複数表示用画像M1bに重畳配置される小枠に複数表示用画像M1aが配置される。
 第4の実施形態によれば、複数表示用画像M1aが見づらくならないように複数表示用画像M1aが配置された合成画像C4を生成することができる。
 なお、第1の実施形態では、操作部17は、内視鏡プロセッサ13に設けられるが、全画面表示モード又は複数表示モードのいずれか1つの表示画面モードに切り替えるための切替え指示入力が可能である第2の操作部34及び切替出力部35が、表示装置31に設けられても構わない(図1の2点鎖線)。操作部34から表示画面モードを切り替えるための切替え指示信号が入力されると、切替出力部35は、切替出力部18c、28cに切替え指示信号を出力する。
 なお、第1の実施形態では、複数表示モードにおいて、内視鏡プロセッサ13、23の各々が要約処理を行って要約情報Wa、Wbを含んだ出力画像を出力するが、第3の画面表示モードである他の複数表示モードとして、内視鏡プロセッサ13が、内視鏡画像Eaと、付加情報Vaとによって構成される出力画像を出力し、内視鏡プロセッサ23が、内視鏡画像Ebと、要約情報Wbとによって構成される出力画像を出力し、表示装置31が、各出力画像に基づく合成画像を表示しても構わない。なお、これとは逆に、内視鏡プロセッサ13が、要約情報Waを有する出力画像を出力し、内視鏡プロセッサ23が、付加情報Vbを有する出力画像を出力し、表示装置31が、各出力画像に基づく合成画像を表示しても構わない。
 なお、第2の実施形態では、画面表示モードの切替え指示入力は、内視鏡システム11の操作部17によって行われるが、内視鏡システム21の操作部27によって行われるように構成されても構わない。
 なお、第2の実施形態では、出力画像生成部128bは、付加情報Vbを付加するが、付加情報Vbを付加しなくても構わない。
 なお、実施形態では、第1の内視鏡システムが走査型内視鏡であり、第2の内視鏡システムが非走査型内視鏡である例を説明しているが、これとは逆に、第1の内視鏡システムが非走査型内視鏡であり、第2の内視鏡システムが走査型内視鏡であっても構わない。
 なお、実施形態では、観察システム1、101は、走査型内視鏡及び非走査型内視鏡を有して構成されるが、走査型内視鏡又は非走査型内視鏡のいずれか一方を複数有して構成されても構わない。
 なお、実施形態では、変換テーブルT1、T2、T3のテーブル情報は、操作部17、27の指示入力によって、変更可能に構成されても構わない。
 なお、実施形態では、変換テーブルT1、T2、T3の変換パターンは1種類であるが、変換パターンを複数種類有し、操作部17、27によって選択できるように構成されても構わない。
 本明細書における各「部」は、実施形態の各機能に対応する概念的なもので、必ずしも特定のハードウウェアやソフトウェア・ルーチンに1対1には対応しない。したがって、本明細書では、実施形態の各機能を有する仮想的回路ブロック(部)を想定して実施形態を説明した。
 本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
 本発明によれば、複数の内視鏡の各々によって撮像された内視鏡画像を含み、内視鏡画像が見づらくならないように、内視鏡画像の表示領域を狭めることなく文字情報が配置された合成画像を生成する観察システムを提供することができる。
 本出願は、2016年3月30日に日本国に出願された特願2016-068667号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (14)

  1.  第1の内視鏡から取得される撮像信号に基づいて、
      第1の画面表示モードにおいて、第1の内視鏡画像と、第1の付加情報と、を含んで構成され、
      第2の画面表示モードにおいて、前記第1の内視鏡画像と、前記第1の付加情報を要約処理した第1の要約情報と、を含んで構成される、
     第1の出力画像を出力する、第1の内視鏡プロセッサと、
     第2の内視鏡から取得される撮像信号に基づいて、第2の内視鏡画像を含む第2の出力画像を出力する第2の内視鏡プロセッサと、
     前記第1の内視鏡プロセッサ及び前記第2の内視鏡プロセッサに接続され、
      前記第1の画面表示モードにおいて、前記第1の出力画像又は前記第2の出力画像のいずれかを表示し、
      前記第2の画面表示モードにおいて、前記第1の出力画像及び前記第2の出力画像に基づく合成画像を表示する、
     表示装置と、
     を有することを特徴とする観察システム。
  2.  前記第2の出力画像は、
      前記第1の画面表示モードにおいて、前記第2の内視鏡画像と、第2の付加情報と、を含んで構成され、
      前記第2の画面表示モードにおいて、前記第2の内視鏡画像と、前記第2の付加情報を要約処理した第2の要約情報と、
     を含んで構成される、
     ことを特徴とする請求項1に記載の観察システム。
  3.  第3の画面表示モードにおいて、
     前記第1の内視鏡プロセッサは、前記第1の内視鏡画像と、前記第1の付加情報とによって構成される前記第1の出力画像を出力し、
     前記第2の内視鏡プロセッサは、前記第2の内視鏡画像と、前記第2の要約情報とによって構成される前記第2の出力画像を出力し、
     前記表示装置は、前記第1の出力画像及び前記第2の出力画像に基づく前記合成画像を表示する、
     ことを特徴とする請求項2に記載の観察システム。
  4.  前記第1の内視鏡プロセッサは、前記第1の要約情報に含まれ、かつ前記第2の要約情報に含まれる重複情報があるとき、前記第1の要約情報又は前記第2の要約情報のいずれか一方から前記重複情報を削除する、
     ことを特徴とする請求項2に記載の観察システム。
  5.  前記第1の内視鏡プロセッサは、第1の操作部を有し、
     前記第1の操作部は、前記第1の画面表示モード又は前記第2の画面表示モードのいずれかの画面表示モードに切り替えるための切替え指示入力が可能であり、
     前記第1の内視鏡プロセッサは、前記第1の操作部による切替え指示入力があったとき、前記画面表示モードを切り替えるための切替え指示信号を前記表示装置に出力する、
     ことを特徴とする請求項4に記載の観察システム。
  6.  前記表示装置は、第2の操作部を有し、
     前記第2の操作部は、前記第1の画面表示モード又は前記第2の画面表示モードのいずれか1つの表示画面モードに切り替えるための切替え指示入力が可能であり、
     前記表示装置は、前記第2の操作部による切替え指示入力が入力されると、前記画面表示モードを切り替えるための切替え指示信号を前記第1の内視鏡プロセッサに出力する、
     ことを特徴とする請求項4に記載の観察システム。
  7.  前記第1の出力画像に占める前記第1の要約情報の占める割合は、前記第1の出力画像に占める前記第1の付加情報の占める割合よりも小さいことを特徴とする請求項1に記載の観察システム。
  8.  前記第1の出力画像は、前記第2の出力画像よりも、横幅が大きくなるように配置されることを特徴とする請求項1に記載の観察システム。
  9.  前記第2の画面表示モードにおける前記第1の出力画像は、前記第1の画面表示モードにおける前記第1の出力画像よりも、横幅に対する縦幅の比が大きく構成されることを特徴とする請求項1に記載の観察システム。
  10.  前記第1の内視鏡プロセッサは、前記第1の付加情報及び前記第1の要約情報が対応付けられたテーブル情報を有して構成される変換テーブルを有し、
     前記第1の内視鏡プロセッサにおける前記要約処理は、前記変換テーブルに基づいて、前記第1の付加情報から前記第1の要約情報を生成する処理である、
     ことを特徴とする請求項1に記載の観察システム。
  11.  前記第1の内視鏡プロセッサは、走査型内視鏡システムの内視鏡プロセッサであり、
     前記第1の要約情報は、画像回転処理の回転角度を示す回転角度値と、色彩調整処理のモードを示す色彩調整モード値と、を含む、
     ことを特徴とする請求項1に記載の観察システム。
  12.  前記第2の内視鏡プロセッサは、非走査型内視鏡システムの内視鏡プロセッサであり、
     前記第2の要約情報は、観察モードが狭帯域観察モードであることを示す情報を含む、
     ことを特徴とする請求項1に記載の観察システム。
  13.  前記第1の画面表示モードは、全画面表示モードであり、
     前記第2の画面表示モードは、ピクチャインピクチャモード又はピクチャアウトピクチャモードである、
     ことを特徴とする請求項1に記載の観察システム。
  14.  外部の内視鏡システムの内視鏡プロセッサから、外部画像を入力可能である画像入力部と、
     内視鏡から取得される撮像信号に基づいて内視鏡画像を生成する画像生成部と、
      前記内視鏡画像及び付加情報を含んで構成される第1の画像と、
      前記内視鏡画像及び前記付加情報を要約処理した要約情報を含んで構成される第2の画像と、
     の少なくとも一方を出力する、出力画像生成部と、
     前記画像入力部と、前記出力画像生成部と、に接続され、
      第1の画面表示モードにおいて、前記第1の画像又は前記外部画像のいずれか一方を出力し、
      第2の画面表示モードにおいて、前記第2の画像及び前記外部画像が合成された合成画像を出力する、
     切替出力部と、
     を有することを特徴とする内視鏡プロセッサ。
PCT/JP2017/004213 2016-03-30 2017-02-06 内視鏡プロセッサ及び内視鏡プロセッサを有する観察システム WO2017169121A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-068667 2016-03-30
JP2016068667A JP2017176471A (ja) 2016-03-30 2016-03-30 内視鏡プロセッサ及び内視鏡プロセッサを有する観察システム

Publications (1)

Publication Number Publication Date
WO2017169121A1 true WO2017169121A1 (ja) 2017-10-05

Family

ID=59963810

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/004213 WO2017169121A1 (ja) 2016-03-30 2017-02-06 内視鏡プロセッサ及び内視鏡プロセッサを有する観察システム

Country Status (2)

Country Link
JP (1) JP2017176471A (ja)
WO (1) WO2017169121A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111403A1 (ja) * 2017-12-08 2019-06-13 オリンパス株式会社 内視鏡システム
WO2020021658A1 (ja) * 2018-07-25 2020-01-30 オリンパス株式会社 光投影装置および光投影方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184850A (ja) * 1993-12-28 1995-07-25 Olympus Optical Co Ltd 画像処理装置
JPH10155737A (ja) * 1996-11-29 1998-06-16 Olympus Optical Co Ltd 電子内視鏡装置
JP2005021392A (ja) * 2003-07-02 2005-01-27 Olympus Corp 内視鏡システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184850A (ja) * 1993-12-28 1995-07-25 Olympus Optical Co Ltd 画像処理装置
JPH10155737A (ja) * 1996-11-29 1998-06-16 Olympus Optical Co Ltd 電子内視鏡装置
JP2005021392A (ja) * 2003-07-02 2005-01-27 Olympus Corp 内視鏡システム

Also Published As

Publication number Publication date
JP2017176471A (ja) 2017-10-05

Similar Documents

Publication Publication Date Title
US12004722B2 (en) Microscope system and medical light source apparatus
US20120056996A1 (en) Special-illumination surgical video stereomicroscope
JP7095693B2 (ja) 医療用観察システム
JP6996518B2 (ja) 分岐光学系、撮像装置、及び撮像システム
US10838189B2 (en) Operating microscope having an image sensor and a display, and method for operating an operating microscope
JP7219208B2 (ja) 内視鏡装置
JP2010113312A (ja) 内視鏡装置および内視鏡プロセッサ
KR20200037244A (ko) 촬상 소자 및 촬상 장치
JP2008023101A (ja) 電子内視鏡システム
KR20200024209A (ko) 촬상 장치 및 화상 생성 방법
US11064144B2 (en) Imaging element, imaging apparatus, and electronic equipment
US11503980B2 (en) Surgical system and surgical imaging device
JP2018108174A (ja) 内視鏡装置
JP2008043742A (ja) 電子内視鏡システム
TW201919537A (zh) 內視鏡系統
JP7012549B2 (ja) 内視鏡装置、内視鏡装置の制御方法、内視鏡装置の制御プログラム、および記録媒体
JP2017034656A (ja) 医療用撮像装置、医療用画像取得システム及び内視鏡装置
WO2017169121A1 (ja) 内視鏡プロセッサ及び内視鏡プロセッサを有する観察システム
JP2006301523A (ja) 医療用顕微鏡
JP2014228851A (ja) 内視鏡装置、画像取得方法および画像取得プログラム
JP2010148586A (ja) 眼底カメラ
JP4873587B2 (ja) 手術用顕微鏡
JP7196302B2 (ja) 光源装置および導光方法
WO2017159046A1 (ja) 内視鏡用光源、内視鏡用光源の制御方法及び内視鏡装置
JP2006350257A (ja) 走査型表示装置

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17773670

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17773670

Country of ref document: EP

Kind code of ref document: A1