WO2016039270A1 - 内視鏡システム、内視鏡システムの作動方法 - Google Patents

内視鏡システム、内視鏡システムの作動方法 Download PDF

Info

Publication number
WO2016039270A1
WO2016039270A1 PCT/JP2015/075216 JP2015075216W WO2016039270A1 WO 2016039270 A1 WO2016039270 A1 WO 2016039270A1 JP 2015075216 W JP2015075216 W JP 2015075216W WO 2016039270 A1 WO2016039270 A1 WO 2016039270A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
luminance
subject
region
Prior art date
Application number
PCT/JP2015/075216
Other languages
English (en)
French (fr)
Inventor
本田 一樹
倉 康人
健夫 鈴木
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201580012938.8A priority Critical patent/CN106102553B/zh
Priority to EP15839553.3A priority patent/EP3103380A4/en
Priority to JP2016506709A priority patent/JP5953454B1/ja
Publication of WO2016039270A1 publication Critical patent/WO2016039270A1/ja
Priority to US15/258,563 priority patent/US10021312B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/0014Fastening element for attaching accessories to the outside of an endoscope, e.g. clips, clamps or bands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00177Optical arrangements characterised by the viewing angles for 90 degrees side-viewing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00181Optical arrangements characterised by the viewing angles for multiple fixed viewing angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/053Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion being detachable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0615Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for radial illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0625Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for multiple fixed illumination angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Definitions

  • the present invention relates to an endoscope system that acquires a first image and a second image of different regions in the same subject, and an operation method of the endoscope system.
  • a wide-angle endoscope for example, a direct-view object image through a direct-view observation window and a side-view object image through a side-view observation window as described in Japanese Patent No. 4782900 A camera that combines an optical system and an image sensor as described in Japanese Patent Publication No. 2013-542467 (WO2012 / 056453) There are types provided for each side view.
  • a wide-angle endoscope having such a direct-view observation optical system and a side-view observation optical system includes, for example, an illumination unit that emits light forward and an illumination unit that emits light laterally, and further, Some of the amount of light emitted to the front and the amount of light emitted to the side can be individually adjusted.
  • the proximity portion when the subject is irradiated with illumination light, the proximity portion has high illuminance, the remote portion has low illuminance, and the proximity portion is observed brighter and the remote portion is observed darker.
  • the central part of the observation site by direct viewing becomes a remote part in the axial direction of the lumen and becomes dark, and observation by side-viewing
  • the part may become a close part of the inner wall of the lumen and become bright.
  • the distance of the subject changes from side to side, so that the left side field of view is bright and the right side field of view is not only dark, but also the front field of view The left side is bright and the right side is dark.
  • the endoscope is capable of adjusting the amount of illumination light for each viewing direction as described above when the brightness of the image is unbalanced in this way, for example, by increasing the amount of light irradiated to the right side, Light amount control is performed to avoid brightness imbalance.
  • the brightness of a direct-view visual field image and the brightness of a side-view visual field image are individually detected, and one of the visual field images reaches a brightness target value suitable for observation based on the detection result.
  • an endoscope system for controlling a light source device is described.
  • Japanese Patent Application Laid-Open No. 2003-179785 discloses that each image is captured so that the brightness of the wide-angle image and the magnified image are displayed in the same manner in an image photographing apparatus that captures a wide-angle image and a magnified image. A technique for setting the amplification factor of each signal is described.
  • the present invention has been made in view of the above circumstances, and provides an endoscope system with high visibility in which a luminance difference between adjacent portions of a plurality of images having different fields of view is suppressed, and an operation method of the endoscope system. It is an object.
  • An endoscope system includes an image configuration unit that configures a first image and a second image based on imaging signals corresponding to different regions in the same subject, the first image, The luminance detection unit for detecting the luminance in the second image, and the difference in luminance in the adjacent portion between the first image and the second image arranged adjacent to each other are equal to or less than a threshold value.
  • a luminance control unit that adjusts the luminance of at least one of the first image and the second image.
  • An operation method of an endoscope system includes a lighting unit that irradiates light to a first region in a subject and a second region in the subject different from the first region.
  • An endoscope system operating method comprising: a first subject image acquisition unit provided in an insertion unit acquires a first imaging signal relating to a first subject image in the first region; A step, a second subject image acquisition unit provided in the insertion unit acquires a second imaging signal related to a second subject image in the second region, and an image configuration unit, A step of forming a first image based on the first image pickup signal and forming a second image based on the second image pickup signal; and a luminance detecting unit configured to detect the luminance of the first image and the first image
  • the steps of detecting the brightness of the image 2 and the brightness control unit are arranged adjacent to each other. Adjusting the luminance of at least one of the first image and the second image so that a luminance difference in the adjacent portion between the first image and the second image is equal to or
  • the figure which shows a mode that the luminance difference of the adjacent part of images is suppressed by gain reduction.
  • luminance difference of the part further adjacent to the adjacent part of images is suppressed by gain reduction.
  • the figure which shows a mode that the luminance difference of the adjacent part of images is suppressed by gain increase.
  • 7 is a flowchart showing luminance adjustment processing of the endoscope system in the first embodiment.
  • FIG. 7 is a flowchart showing details of gain-up processing in step S7 of FIG. 6 in the first embodiment.
  • 7 is a flowchart showing details of gain reduction processing in step S8 of FIG. 6 in the first embodiment.
  • Embodiment 3 of this invention the perspective view which shows partially the structure of the endoscope in the state with which the side image acquisition unit is mounted
  • the perspective view which shows partially the structure of the endoscope in the state from which the side image acquisition unit is removed.
  • FIG. 1 is a diagram showing a configuration of an endoscope system.
  • the endoscope system includes an endoscope 1, a video processor 2, and a monitor 3.
  • the endoscope 1 is configured as an electronic endoscope having an insertion portion 1a inserted into the subject.
  • the endoscope 1 is provided in the insertion portion 1a and acquires a first object image for acquiring a first imaging signal related to a first object image (optical image) of a first region in the object.
  • a second object for obtaining a second imaging signal relating to a second object image (optical image) of a second region in the object different from the first region, provided in the insertion unit 1a.
  • an example of the first region is a region including the front in the subject (a region of the front visual field), and the first subject image acquisition unit is arranged with the front facing the distal end of the insertion unit 1a.
  • An imaging unit configured to generate a first imaging signal by photoelectrically converting a first subject image (optical image) of a first region in the subject including the front along the longitudinal direction of the insertion unit 1a. 11 (first imaging unit).
  • an example of the second region different from the first region is a region including a side in the same subject (a region of a side field of view), and the second subject image acquisition unit includes the insertion unit 1a.
  • a second imaging signal is generated by photoelectrically converting a second object image (optical image) in a second region in the object including the side intersecting the longitudinal direction. More specifically, a plurality of second object image acquisition units are arranged at a plurality of angular positions in the circumferential direction of the insertion unit 1a, and a plurality of second imaging signals related to the plurality of second object images. To get.
  • the second subject image acquisition unit includes an imaging unit 12 (second imaging unit separate from the first imaging unit) that captures an area of the right visual field and an area of the left visual field.
  • An imaging unit 13 (second imaging unit separate from the first imaging unit) is included.
  • the right side field of view and the left side field of view are, for example, two equally divided positions in the circumferential direction with the front field of view as the center.
  • These imaging units 11 to 13 are configured to include an imaging optical system and an imaging element, and generate an imaging signal by photoelectrically converting an object image formed by the imaging optical system by the imaging element.
  • An imaging signal is output to the video processor 2 electrically connected to the imaging units 11 to 13.
  • the illumination unit a first illumination unit that irradiates light to the first region and a second illumination unit that irradiates light to the second region are provided.
  • the first illumination unit corresponds to the illumination unit 15 that emits light to the imaging range of the imaging unit 11.
  • the second illumination unit corresponds to the illumination unit 16 that emits light to the imaging range by the imaging unit 12 and the illumination unit 17 that emits light to the imaging range by the imaging unit 13. Accordingly, the illumination unit 15 illuminates the front, the illumination unit 16 illuminates the right side, and the illumination unit 17 illuminates the left side.
  • These illumination units 15, 16, and 17 are configured to include light emitting elements such as LEDs, for example, and emit light by adjusting each light amount based on a control signal from an illumination control unit 21 (to be described later) of the video processor 2. It is like that.
  • the right side and the left side are illustrated as the sides on which the illumination unit illuminates and the imaging unit images, but instead of or in addition to these, the upper side, the lower side, or diagonally Sides or the like may be included, or any combination thereof may be used.
  • the video processor 2 includes an image construction unit 20, an illumination control unit 21, a luminance detection unit 22, a luminance control unit 23, a threshold storage unit 24, and an image output unit 25.
  • the image construction unit 20 composes a first image and a second image based on imaging signals corresponding to different regions in the same subject, and is electrically connected via a signal line 14.
  • the first image pickup signal is received from the first image pickup unit to form a first image (image signal)
  • the second image pickup signal is received from the second image pickup unit to receive the second image (image signal).
  • the image configuration unit 20 arranges the configured first image and second image so as to be adjacent to each other.
  • the image constructing unit 20 is based on the first image and the second image, and the first image is the center and the plurality of second images are the first corresponding to the visual field directions of the imaging units 11 to 13.
  • the images are arranged at a plurality of angular positions in the circumferential direction of the image (in the example of FIG. 1, two equally divided positions in the circumferential direction).
  • the image construction unit 20 is configured to include, for example, a frame buffer, and the imaging signals sequentially input from the imaging units 11 to 13 in units of pixels, for example, are set to addresses corresponding to the pixel positions in the frame buffer.
  • the imaging signals sequentially input from the imaging units 11 to 13 in units of pixels for example, are set to addresses corresponding to the pixel positions in the frame buffer.
  • the illumination control unit 21 adjusts each light emission amount of the illumination units 15 to 17 to emit light. That is, the illumination control unit 21 controls the light amount of the first illumination unit and the light amount of the second illumination unit independently.
  • the luminance detection unit 22 detects the luminance of the first image and the luminance of the second image, respectively. Specifically, the luminance detection unit 22 detects the luminance of each pixel constituting the first image and the second image, and further detects the luminance of a plurality of regions Re obtained by dividing the image as will be described later. .
  • the luminance control unit 23 is configured so that the luminance difference in the adjacent portion between the first image and the second image arranged adjacent to each other is equal to or less than a predetermined threshold (luminance difference threshold). The brightness of at least one of the second image is adjusted.
  • the threshold storage unit 24 stores the above-described threshold in a nonvolatile manner.
  • the threshold storage unit 24 further stores a lower limit luminance Ad (see FIG. 5) and an upper limit luminance Au (see FIG. 3) described later.
  • the image output unit 25 outputs a display signal in which the first image and the second image are arranged adjacent to each other based on the image whose luminance is adjusted by the luminance control unit 23.
  • the monitor 3 serving as a display unit displays an image.
  • the screen of the monitor 3 has a front image 31 (based on the first image) based on the imaging signal obtained from the imaging unit 11 in the center and a right side based on the imaging signal obtained from the imaging unit 12.
  • the image 32 is next to the right of the front image 31, and the left side image 33 based on the imaging signal obtained from the imaging unit 13 is next to the left of the front image 31 (the right side image 32 and the left side image 33 are the second images, respectively. (Based on the image), each arranged and displayed.
  • the image construction unit 20 composes an image so that the first image and the second image are arranged adjacent to each other in the same screen.
  • the arrangement of the images 31 to 33 viewed from the observer is the same as the direction of each visual field viewed from the endoscope 1, as if the observation is performed by one super wide-angle camera.
  • the image structure is realized.
  • the front image 31, the right side image 32, and the left side image 33 are displayed on one monitor 3, but each may be displayed on a separate monitor. That is, the image output unit 25 is either a single display signal for displaying the first image and the second image on one monitor 3 or a plurality of display signals for displaying on the plurality of monitors 3. As a result, a display signal is output.
  • the endoscope system according to the present embodiment does not perform the processing shown in the flowcharts in FIGS. 6 to 8 separately from the processing that is executed separately on the endoscope image acquired in advance, It is characterized in that the endoscope image acquired by the mirror 1 is performed as a process for adjusting the brightness in real time by the video processor 2.
  • FIG. 6 is a flowchart showing the brightness adjustment processing of the endoscope system.
  • the brightness control unit 23 does not adjust the brightness for non-image pixels that do not constitute either the first image or the second image (for example, non-image pixels in a boundary region between images). It will be.
  • the luminance detection unit 22 divides the first image and the second image into a plurality of regions Re (see FIG. 1), and sets the average luminance of each divided region Re for each region Re. (Step S2).
  • the average luminance is an average of the luminance of the pixels in the region Re.
  • FIG. 2 is a diagram showing an example of the luminance distribution of a plurality of images having different fields of view.
  • the region Re is composed of one or more pixels (thus, the region Re can be composed of one pixel).
  • the luminance detection unit 22 is an area configured by a plurality of pixels, for example, an image (a front image 31, a right side image 32, and a left side image 33) in the horizontal direction. Are set as vertically elongated rectangular regions (see FIGS. 1 and 2, etc.).
  • the method of dividing an image into a plurality of regions Re is not limited to this.
  • the image may be divided into a plurality of grid-like regions divided in the horizontal direction and the vertical direction.
  • it may be divided into concentric regions (for example, concentric circles or concentric polygons) divided into a plurality of portions in the radial direction, or other division methods may be employed.
  • the luminance distribution shown in FIG. 2 shows that in the lumen-shaped subject, for example, the endoscope approaches the left side wall and the distance to the right side wall increases, and the right side image 32 becomes dark. A state when the right side image 32 is brightened by increasing the amount of light is shown. That is, as shown in FIG. 2, a large luminance difference between two regions Re adjacent to each other with a boundary is caused by, for example, the light control of the illumination units 15 to 17 by the illumination control unit 21. Therefore, the luminance control unit 23 adjusts the luminance with respect to the first image and the second image acquired after performing the light amount control by the illumination control unit 21.
  • the adjacent portion across the boundary between the front image 31 and the right side image 32 more specifically, the average luminance An-1 of the (n-1) th region Re on the front image 31 side and the right side
  • the numbers 1, 2,..., (N ⁇ 1), n,... Indicating the horizontal position of the region Re are serial numbers from the left side image 33 through the front image 31 to the right side image 32. .
  • the luminance control unit 23 calculates a luminance difference
  • the luminance control unit 23 further reduces the average luminance An-1, which is lower than the average luminance An in the example shown in FIG. Then, it is determined whether or not the average luminance An-1 is smaller than a predetermined lower limit luminance Ad (see FIG. 5) (step S5).
  • the lower limit luminance Ad is a luminance indicating the lower limit of the luminance range appropriate for observing an image and making a diagnosis.
  • the higher average luminance that is, in the example shown in FIG. 2, is the average luminance An greater than the predetermined upper limit luminance Au (see FIG. 3)? It is determined whether or not (step S6).
  • the upper limit luminance Au is a luminance indicating the upper limit of the appropriate luminance range for observing an image and making a diagnosis.
  • step S6 If it is determined in step S6 that the luminance is less than or equal to the upper limit luminance Au, or if it is determined in step S5 that the luminance is smaller than the lower limit luminance Ad, a gain-up process as described later with reference to FIG. 7 is performed. Perform (step S7).
  • the gain-up process is performed when it is determined that the lower average luminance is equal to or higher than the lower limit luminance Ad and the higher average luminance is equal to or lower than the upper limit luminance Au.
  • the gain reduction process may be performed.
  • step S6 determines whether it is larger than the upper limit luminance Au. If it is determined in step S6 that it is larger than the upper limit luminance Au, a gain-down process as will be described later with reference to FIG. 8 is performed (step S8).
  • step S4 If it is determined in step S4 that the threshold value is equal to or less than the threshold value, or if the process of step S7 or step S8 is performed, it is further determined whether there is another boundary between images (step S9). .
  • step S2 the process proceeds to step S2 and the above-described processing is performed on the region Re sandwiching the other boundary.
  • the process proceeds to step S2 and the above-described processing is performed on the region Re sandwiching the other boundary.
  • the process proceeds to step S2 and the above-described processing is performed on the region Re sandwiching the other boundary.
  • the boundary between the front image 31 and the right side image 32 not only the boundary between the front image 31 and the right side image 32 but also the boundary between the front image 31 and the left side image 33 exists. Become.
  • step S9 determines whether other boundary exists. If it is determined in step S9 that no other boundary exists, the process returns from this process to a main process (not shown).
  • FIG. 7 is a flowchart showing details of the gain-up process in step S7 of FIG.
  • the gain of the region Re having a lower average luminance is increased so that the luminance difference is equal to or smaller than the threshold (step S11).
  • the luminance control unit 23 divides the first image and the second image into a plurality of regions Re when the luminance adjustment is performed by gain-up or gain-down described later.
  • the unit is Re.
  • FIG. 5 is a diagram illustrating a state in which the luminance difference between adjacent portions of images is suppressed by increasing the gain.
  • the lower average luminance An of the average luminance An-1 and the average luminance An is smaller than the lower limit luminance Ad.
  • the gain increase process in step S7 is performed. It is an example that is determined to be performed.
  • the luminance control unit 23 increases the gain to the average luminance A′n by applying a gain larger than 1 to the lower average luminance An.
  • the gain at this time may be given a prescribed value according to the product, or may be settable by the user.
  • between the average luminance A′n of the gained region Re and the average luminance An ⁇ 1 of the adjacent region Re on the opposite side across the boundary is equal to or less than the threshold value. If not, a gain greater than 1 is further applied to the average luminance A′n. By repeating such processing as necessary, the luminance difference
  • the gain-up method is used in which the gain higher than 1 is applied to the lower average luminance a plurality of times until the luminance difference becomes equal to or smaller than the threshold.
  • the present invention is not limited to this method. The gain-up method may be used as appropriate.
  • the average luminance A′n of the region Re in which the luminance adjustment is performed can be achieved only by setting the luminance difference
  • between the average brightness An + 1 of the area Re adjacent to the side opposite to the boundary of the area Re may be larger than the threshold value.
  • step S13 it is determined whether or not the calculated luminance difference
  • step S11 the process proceeds to step S11 to perform the process as described above.
  • step S13 when it is determined in step S13 that the luminance difference calculated after sequentially adjusting the luminance of the region Re in order from the region Re adjacent to the boundary is equal to or smaller than the threshold value, this processing is shown in FIG. Return to processing.
  • FIG. 8 is a flowchart showing details of the gain reduction process in step S8 of FIG.
  • the gain of the region Re having the higher average luminance is reduced so that the luminance difference is equal to or less than the threshold (step S21).
  • FIG. 3 is a diagram illustrating a state in which the luminance difference between adjacent portions of images is suppressed by gain reduction.
  • the higher average luminance An of the average luminance An-1 and the average luminance An is larger than the upper limit luminance Au.
  • the gain reduction process in step S8 is performed. It is an example that is determined to be performed.
  • the luminance control unit 23 reduces the gain to the average luminance A′n by applying a gain smaller than 1 to the higher average luminance An.
  • the gain at this time may be given a prescribed value according to the product, or may be set by the user.
  • between the average luminance A′n of the gain-reduced region Re and the average luminance An ⁇ 1 of the opposite region Re adjacent across the boundary is equal to or less than the threshold value. If not, a gain smaller than 1 is further applied to the average luminance A′n. By repeating such processing as necessary, the luminance difference
  • the present invention is not limited to this method, and is arbitrary. The gain down method may be used as appropriate.
  • step S22 the brightness difference
  • step S21 if it is determined that the value is larger than the threshold value, the process goes to step S21 to perform the process as described above.
  • FIGS. 3 and 4 the luminance difference between the average luminance A′n after the luminance adjustment and the average luminance An + 1 of the region Re adjacent to the opposite side of the boundary is larger than the threshold value.
  • the average luminance An + 1 is reduced in gain to the average luminance A′n + 1, and the luminance difference
  • FIG. 4 is a diagram illustrating a state in which the luminance difference between the adjacent portions adjacent to each other between the images is suppressed by the gain reduction.
  • step S23 when it is determined in step S23 that the luminance difference calculated after sequentially adjusting the luminance of the region Re in order from the region Re adjacent to the boundary is equal to or smaller than the threshold value, this processing is shown in FIG. Return to processing.
  • whether or not to perform the luminance adjustment processing by the luminance control unit 23 is determined based on the average luminance of the pixels in the region Re. Instead, the luminance of the pixels in the region Re is weighted. You may determine based on the weighted average brightness which performed. For example, when observing an image, the subject located at the center in the vertical direction of the image is more important than the subject located at the upper and lower ends of the image. Therefore, when weighting and averaging the luminance of the pixels in the region Re, a large weight is given to the central pixel in the vertical direction, and a small weight is given to the pixels at the upper end and the lower end. And good.
  • the brightness difference between the pixel pairs facing each other across the boundary is calculated, and it is determined that the brightness adjustment processing by the brightness control unit 23 is performed when the ratio of the pixel pairs whose brightness difference is greater than the threshold is equal to or greater than a predetermined ratio. You may make it.
  • one of the gain-up and gain-down processing is performed at one boundary.
  • the processing may be slightly complicated, one boundary is processed. It is also possible to perform processing such as increasing the gain of the region Re having a lower average luminance and decreasing the gain of the region Re having a higher average luminance.
  • the first image and the second image are set so that the luminance difference in the adjacent portion between the first image and the second image arranged adjacent to each other is equal to or less than a predetermined threshold value. Since the brightness of at least one of the images is adjusted, the brightness difference between adjacent portions of a plurality of images having different fields of view can be suppressed, and the visibility can be increased.
  • the luminance is adjusted in units of the region Re obtained by dividing the image, the luminance difference in the region Re is maintained, and the shadow and stereoscopic effect in the region Re can be maintained.
  • the luminance difference based on the average luminance is calculated and compared with the threshold value and the luminance is adjusted, it is possible to appropriately grasp the luminance difference between the adjacent regions Re and adjust the luminance.
  • the brightness adjustment is performed by either gain up or gain down, it is possible to reduce the brightness difference by a relatively simple process.
  • gain reduction when gain reduction is prioritized over gain up, a bright portion close to whiteout can be observed with more appropriate and easy-to-see brightness.
  • non-image pixels are not adjusted for luminance, non-image pixels (for example, between images or the periphery outside the image) are maintained at a constant luminance value, and the luminance of the non-image pixels is determined. Since the value does not change for each image, the image is easy to see.
  • the luminance difference between images with different fields of view can be satisfactorily reduced when the rectangular images are arranged in the horizontal direction so that wide-angle images can be observed. it can.
  • the luminance difference between the images can be reduced well when a plurality of concentric images having different diameters are acquired and a wide-angle image can be observed. it can.
  • the brightness adjustment is performed on the first image and the second image acquired after the light amount control by the illumination control unit 21 is performed, an image in which the average brightness for each field of view is optimized. It becomes an object of brightness adjustment, can suppress a decrease in contrast, and can suppress noise amplification.
  • the image composing unit 20 configures an image in which the first image and the second image are arranged adjacent to each other, it is possible to observe images of a plurality of fields of view at a wide angle.
  • the image output unit 25 When the image output unit 25 outputs a single display signal, the first image and the second image can be displayed on the single monitor 3 and observed. When the image output unit 25 outputs a plurality of display signals, the first image and the second image can be displayed on each of the plurality of monitors 3 and observed.
  • an ultra-wide-angle endoscope can be realized without using an expensive and large super-wide-angle lens.
  • a plurality of second object image acquisition units arranged at a plurality of angular positions in the circumferential direction of the insertion unit 1a acquire a plurality of second imaging signals, and the image construction unit 20 performs a first operation based on the first imaging signals.
  • One image is the center, and a plurality of second images based on a plurality of second imaging signals are at a plurality of angular positions in the circumferential direction of the first image (in the example of FIG. 1, two equally divided positions in the circumferential direction).
  • imaging signals in a plurality of viewing directions can be acquired.
  • FIG. 9 shows Embodiment 2 of the present invention and is a diagram showing a configuration of an endoscope system.
  • the same parts as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted as appropriate, and only different points will be mainly described.
  • the configuration of the imaging system of the endoscope 1 is changed, and instead of providing a light source such as an LED in the endoscope 1, a light source device 26 is provided in the video processor 2. It has become.
  • a front optical system 41 that acquires a front optical image (an image of a field of view of a region including the front in the subject) along the longitudinal direction of the insertion portion 1a at the distal end portion of the insertion portion 1a of the endoscope 1. And an illumination unit 15 that irradiates light to the field of view of the front optical system 41.
  • a circumferential surface portion in the vicinity of the proximal end side of the front optical system 41 and the illumination unit 15 has a predetermined circumferential angular range (a predetermined angular range is 360 ° on the side intersecting the longitudinal direction of the insertion portion 1a).
  • a lateral optical system 42 that acquires an optical image of the entire circumference in the circumferential direction (an image of a field of view of a region including a side different from the front in the same subject), and the side optical system 42 And an illuminating unit 43 that irradiates the field of view with light.
  • the front optical system 41 and the side optical system 42 are a composite optical system that transmits and acquires a front optical image and reflects and acquires an optical image in a predetermined angular range in the side circumferential direction. You may comprise.
  • the front optical image by the front optical system 41 and the side (circumferential direction) optical image by the side optical system 42 are, for example, formed in different imaging regions on a single imaging device. It has become.
  • the first subject image acquisition unit is configured by the front optical system 41 and an imaging region that captures an optical image in front of the imaging element, and the front of the distal end portion of the insertion unit 1a is provided. It is arranged toward.
  • the second subject image acquisition unit is configured by the side optical system 42 and an imaging region that captures an optical image in the lateral direction of the imaging element, and is provided circumferentially on the peripheral surface portion of the insertion unit 1a.
  • the subject image in a predetermined angle range is arranged so as to be imaged.
  • the first subject image acquisition unit and the second subject image acquisition unit also include one imaging unit (imaging element), and an optical image of the subject in the first field of view (first image).
  • imaging element imaging element
  • first image optical image of the subject in the first field of view
  • second object image optical image of the object in the second field of view
  • the second imaging signal is generated by forming an image on the part.
  • the first imaging signal and the second imaging signal generated by the imaging device are output to the video processor 2, and the above-described image configuration unit 20, luminance detection unit 22, luminance control unit 23, and image output in the video processor 2.
  • Connected to the unit 25 that is, the imaging unit is electrically connected to the luminance control unit 23).
  • the video processor 2 is provided with a light source device 26 that emits illumination light, instead of the illumination control unit 21 of the first embodiment.
  • the light emitted from the light source device 26 is irradiated to the subject in each visual field direction from the illumination unit 15 and the illumination unit 43 including the illumination optical system via the light guide (LG) 27. It has become.
  • the optical image of the front optical system 41 is formed as a circular optical image at the center of the imaging device, and a first imaging signal is generated by photoelectric conversion of the imaging device. Based on the first image pickup signal, the image forming unit 20 forms a circular front image 31A.
  • the optical image of the side optical system 42 is an annular optical image having a predetermined angle range in a ring surrounding the circular optical image at the central portion described above in the image sensor (the predetermined angle range is 360 °).
  • the optical image is formed as an annular optical image
  • a second imaging signal is generated by photoelectric conversion of the imaging device. Based on the second imaging signal, the image construction unit 20 forms, for example, an annular side image 32A of the outer peripheral portion of the front image 31A.
  • the image construction unit 20 configures the front image 31A that is the first image in a circular shape, and the side image 32A that is the second image within a predetermined angular range in the ring surrounding the front image 31A. Configure the shape to compose the image.
  • a gap 35 is generated between the front image 31A and the side image 32A.
  • the gap 35 has a black frame shape because it is a dark part where an optical image of the subject is not formed on the image sensor. Accordingly, the gap 35 is a set of non-image pixels that do not constitute either the first image or the second image, and the luminance control unit 23 does not adjust the luminance for the gap 35.
  • the imaging element generally includes a rectangular imaging surface, but the image circles of the front optical system 41 and the side optical system 42 are generally smaller than the imaging surface as shown in FIG. It becomes a circular area. Therefore, a non-image region 36 including a set of non-image pixels that does not constitute either the first image or the second image is generated around the side image 32A.
  • the luminance detection unit 22 and the luminance control unit 23 have, for example, a concentric shape in which the front image 31A and the side image 32A are divided into a plurality of portions in the radial direction (here, concentric circles are used, but not limited thereto). In other words, the average luminance is detected and the luminance is adjusted in units of the region Re.
  • the first imaging signal related to the first subject image in front of the insertion portion 1a and the circumference of the insertion portion 1a can be obtained while providing substantially the same effect as the first embodiment described above.
  • a second imaging signal related to a second subject image in a predetermined angular range of directions, and the image construction unit 20 composes the first image into a circular shape as shown in FIG. Even when the second image is formed into a shape of a predetermined angular range in the ring surrounding the periphery of the first image and an image signal (image) is formed, an image that matches the viewing direction at the time of imaging is obtained. It becomes possible to observe.
  • the diameter and weight of the endoscope distal end portion can be effectively reduced. be able to.
  • the image The first image area and the second image area are separated from (image signal) and cut out, and brightness adjustment similar to that described in the first embodiment is performed for each, and the processing is performed.
  • the process of combining the one image and the second image and returning to the original one may be performed.
  • FIG. 10 and 11 show Embodiment 3 of the present invention
  • FIG. 10 is a perspective view partially showing the configuration of the endoscope in a state where the side image acquisition unit 50 is attached.
  • FIG. 4 is a perspective view partially showing the configuration of the endoscope in a state in which a side image acquisition unit 50 is removed.
  • the endoscope of this embodiment includes an endoscope main body 1A and a side image acquisition unit 50, as shown in FIGS.
  • the endoscope main body 1A includes an imaging unit 11 that acquires a first imaging signal related to the front image 31, an illumination unit 15 that emits light forward that is an imaging range of the imaging unit 11, and forceps and the like. And a forceps channel 19 for inserting the treatment instrument, and can be used as a general direct-view endoscope.
  • the side image acquisition unit 50 is configured to be detachable with respect to the endoscope main body 1A.
  • the side image acquisition unit 50 includes an imaging unit 12 that acquires a second imaging signal related to the right side image 32, an illumination unit 16 that emits light to the right side that is an imaging range of the imaging unit 12, and a left side.
  • the imaging unit 13 that acquires the second imaging signal related to the image 33, the illumination unit 17 that emits light to the left side that is the imaging range by the imaging unit 13, and the endoscope body 1A are fitted to the side.
  • the endoscope described above is also configured by combining such a direct-viewing endoscope main body 1A and a side-view side image acquisition unit 50 that is detachable from the endoscope main body 1A. Similar to the embodiments described above, the luminance adjustment for reducing the luminance difference between images can be applied.
  • the endoscope of the third embodiment Even if the endoscope of the third embodiment is used, the same effects as those of the first and second embodiments can be obtained, and only the endoscope main body 1A can be directly viewed as required. It can be used as a mirror. Alternatively, it is possible to realize a wide-angle endoscope capable of observing both the front field of view and the side field of view by using the side image acquisition unit 50 in combination with a general direct-view type endoscope. Become.
  • the first subject image acquisition unit and the second subject image acquisition unit include, for example, an imaging optical system and an imaging element.
  • the imaging optical system of these includes the endoscope 1 (or the endoscope).
  • the image sensor may be disposed in the video processor 2 by being disposed in the main body 1A and the side image acquisition unit 50). In this case, an optical image formed by the imaging optical system may be transmitted to the imaging element in the video processor 2 via a transmission optical system or the like.
  • the endoscope system has been mainly described.
  • an operation method for operating the endoscope system as described above may be used, or a process for causing the computer to operate the endoscope system as described above. It may be a program, a non-temporary recording medium readable by a computer for recording the processing program, or the like.
  • an endoscope system in particular, an endoscope system having a wide-angle endoscope having a direct-viewing observation optical system and a side-viewing observation optical system, a plurality of images having different fields of view. It is possible to observe an image with high visibility in which a luminance difference between adjacent portions of (image signal) is suppressed.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.
  • various aspects of the invention can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components from all the components shown by embodiment.
  • the constituent elements over different embodiments may be appropriately combined.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 同じ被検体内の異なる領域に対応する撮像信号に基づき第1の画像と第2の画像とを構成する画像構成部(20)と、第1および第2の画像の輝度を検出する輝度検出部(22)と、第1の画像と第2の画像の隣接部分の輝度差が閾値以下になるように、少なくとも一方の画像の輝度を調整する輝度制御部(23)と、を備える内視鏡システム。

Description

内視鏡システム、内視鏡システムの作動方法
 本発明は、同じ被検体内の異なる領域の第1の画像および第2の画像を取得する内視鏡システム、内視鏡システムの作動方法に関する。
 近年、より広い範囲を観察可能とするために、直視観察光学系と側視観察光学系とを有する広角内視鏡が提案されている。
 こうした広角内視鏡としては、例えば、日本国特許第4782900号に記載されたような、直視観察窓を介した直視の被検体像と、側視観察窓を介した側視の被検体像とを、1つの撮像素子に結像するタイプ、あるいは日本国特表2013-542467号公報(WO2012/056453号公報)に記載されたような、光学系と撮像素子とを組み合わせたカメラを、直視用、側視用のそれぞれに設けたタイプ、などがある。
 こうした直視観察光学系と側視観察光学系とを有する広角内視鏡は、例えば、前方へ光を照射する照明部と側方へ光を照射する照明部とを個別に備えており、さらに、前方への照射光量と側方への照射光量とについても個別に調整することができるものがある。
 ところで、被検体に照明光を照射する場合に、近接部が高い照度、遠隔部が低い照度となって、近接部がより明るく観察され、遠隔部がより暗く観察される状態が発生する。具体的に、広角内視鏡を用いて例えば管腔形状の被検体を観察する場合に、直視による観察部位の中央部が管腔の軸方向における遠隔部となって暗くなり、側視による観察部位が管腔内壁の近接部となって明るくなること等がある。さらに、管腔内において、内視鏡が例えば左側壁に近づいた場合に、左右で被検体の距離が変わるために、左側方視野が明るく右側方視野が暗くなるだけでなく、前方視野についても左側が明るく右側が暗い画像になる。
 このように画像の明るさがアンバランスになったときに、上述したような視野方向毎に照明光量を調整可能な内視鏡であれば、例えば右側方へ照射する光量を引上げることにより、明るさのアンバランスを回避する光量制御が行われる。
 例えば、WO2011/055613号公報には、直視視野画像の明るさと側視視野画像の明るさとを個別に検出して、検出結果に基づき、一方の視野画像が観察に適した明るさ目標値に達するように光源装置を制御する内視鏡システムが記載されている。
 また、日本国特開2003-179785号公報には、広角画像の撮影と拡大画像の撮影とを行う画像撮影装置において、広角画像と拡大画像の明るさが同じに表示されるように、各画像信号の増幅率をそれぞれ設定する技術が記載されている。
 しかしながら、各視野の平均的な明るさが揃うように、特定の視野の照明光量のみを調整すると、視野同士の境界において大きな明るさの差が生じて、画像の視認性が低下し、ひいては画像に基づく診断性が低下してしまうことになる。
 本発明は上記事情に鑑みてなされたものであり、視野の異なる複数の画像の隣接部分の輝度差が抑制された視認性の高い内視鏡システム、内視鏡システムの作動方法を提供することを目的としている。
 本発明のある態様による内視鏡システムは、同じ被検体内の異なる領域に対応する撮像信号に基づき第1の画像と第2の画像とを構成する画像構成部と、前記第1の画像および前記第2の画像における輝度を検出する輝度検出部と、隣接して配置される前記第1の画像と前記第2の画像との該隣接部分における輝度差が閾値以下になるように、前記第1の画像と前記第2の画像との少なくとも一方の輝度を調整する輝度制御部と、を備えている。
 本発明のある態様による内視鏡システムの作動方法は、被検体内の第1の領域、および前記第1の領域とは異なる前記被検体内の第2の領域へ光を照射する照明部を備える内視鏡システムの作動方法であって、挿入部に設けられた第1の被検体像取得部が、前記第1の領域の第1の被検体像に係る第1の撮像信号を取得するステップと、前記挿入部に設けられた第2の被検体像取得部が、前記第2の領域の第2の被検体像に係る第2の撮像信号を取得するステップと、画像構成部が、前記第1の撮像信号に基づき第1の画像を構成するとともに、前記第2の撮像信号に基づき第2の画像を構成するステップと、輝度検出部が、前記第1の画像の輝度と前記第2の画像の輝度とをそれぞれ検出するステップと、輝度制御部が、隣接して配置される前記第1の画像と前記第2の画像との該隣接部分における輝度差が閾値以下になるように、前記第1の画像と前記第2の画像との少なくとも一方の輝度を調整するステップと、を有している。
本発明の実施形態1における内視鏡システムの構成を示す図。 上記実施形態1において、視野の異なる複数の画像の輝度分布の例を示す図。 上記実施形態1において、画像同士の隣接部分の輝度差をゲインダウンによって抑制する様子を示す図。 上記実施形態1において、画像同士の隣接部分にさらに隣接する部分の輝度差をゲインダウンによって抑制する様子を示す図。 上記実施形態1において、画像同士の隣接部分の輝度差をゲインアップによって抑制する様子を示す図。 上記実施形態1における内視鏡システムの輝度調整処理を示すフローチャート。 上記実施形態1の図6のステップS7におけるゲインアップ処理の詳細を示すフローチャート。 上記実施形態1の図6のステップS8におけるゲインダウン処理の詳細を示すフローチャート。 本発明の実施形態2における内視鏡システムの構成を示す図。 本発明の実施形態3において、側方画像取得ユニットが装着されている状態の内視鏡の構成を部分的に示す斜視図。 上記実施形態3において、側方画像取得ユニットが取り外されている状態の内視鏡の構成を部分的に示す斜視図。
 以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
 図1から図8は本発明の実施形態1を示したものであり、図1は内視鏡システムの構成を示す図である。
 図1に示すように、この内視鏡システムは、内視鏡1と、ビデオプロセッサ2と、モニタ3と、を備えている。
 内視鏡1は、被検体の内部に挿入される挿入部1aを備えた電子内視鏡として構成されている。この内視鏡1は、挿入部1aに設けられ、被検体内の第1の領域の第1の被検体像(光学像)に係る第1の撮像信号を取得する第1の被検体像取得部と、挿入部1aに設けられ、第1の領域とは異なる被検体内の第2の領域の第2の被検体像(光学像)に係る第2の撮像信号を取得する第2の被検体像取得部と、第1の領域および第2の領域へ光を照射する照明部と、を備えている。
 具体的に、第1の領域の一例は被検体内の前方を含む領域(前方視野の領域)であり、第1の被検体像取得部は、挿入部1aの先端部に前方を向けて配置されていて、挿入部1aの長手方向に沿った前方を含む被検体内の第1の領域の第1の被検体像(光学像)を光電変換して第1の撮像信号を生成する撮像部11(第1の撮像部)を含む。
 また、第1の領域とは異なる第2の領域の一例は同じ被検体内の側方を含む領域(側方視野の領域)であり、第2の被検体像取得部は、挿入部1aの長手方向に交差する側方を含む被検体内の第2の領域の第2の被検体像(光学像)を光電変換して第2の撮像信号を生成する。さらに具体的に、第2の被検体像取得部は、挿入部1aの周方向の複数の角度位置に複数配置されていて、複数の第2の被検体像に係る複数の第2の撮像信号を取得する。特にここでは、第2の被検体像取得部は、右側方の視野の領域を撮像する撮像部12(第1の撮像部とは別体の第2の撮像部)および左側方の視野の領域を撮像する撮像部13(第1の撮像部とは別体の第2の撮像部)を含んでいる。右側方視野と左側方視野とは、前方視野を中心として、周方向の例えば2等分割位置となっている。
 これらの撮像部11~13は、撮像光学系と撮像素子とを含んで構成されており、撮像光学系により結像した被検体像を撮像素子により光電変換して撮像信号を生成し、生成した撮像信号を、撮像部11~13に電気的に接続されたビデオプロセッサ2へ出力するようになっている。
 また、照明部としては、第1の領域へ光を照射する第1の照明部と、第2の領域へ光を照射する第2の照明部と、が設けられている。具体的に、第1の照明部は、撮像部11による撮像範囲へ光を照射する照明部15が該当する。また、第2の照明部は、撮像部12による撮像範囲へ光を照射する照明部16と、撮像部13による撮像範囲へ光を照射する照明部17と、が該当する。従って、照明部15は前方を照明し、照明部16は右側方を照明し、照明部17は左側方を照明する。
 これらの照明部15,16,17は、例えばLED等の発光素子を含んで構成されていて、ビデオプロセッサ2の後述する照明制御部21からの制御信号に基づき、各光量を調整して発光するようになっている。
 なお、ここでは照明部が照明し撮像部が撮像する側方として、右側方および左側方を例示しているが、これらに代えて、もしくはこれらに加えて、上側方や下側方、あるいは斜め側方等を含むようにしても構わないし、さらにはこれらの任意の組み合わせであっても良い。
 一方、ビデオプロセッサ2は、画像構成部20と、照明制御部21と、輝度検出部22と、輝度制御部23と、閾値記憶部24と、画像出力部25と、を備えている。
 画像構成部20は、同じ被検体内の異なる領域に対応する撮像信号に基づき第1の画像と第2の画像とを構成するものであって、信号線14を介して電気的に接続された第1の撮像部から第1の撮像信号を受信して第1の画像(画像信号)を構成するとともに、第2の撮像部から第2の撮像信号を受信して第2の画像(画像信号)を構成する。また、画像構成部20は、構成した第1の画像と第2の画像とを、互いに隣接するように配置する。例えば、画像構成部20は、第1の画像および第2の画像に基づき、撮像部11~13の各視野方向に対応して、第1の画像が中心、複数の第2の画像が第1の画像の周方向の複数の角度位置(図1の例では、周方向の2等分割位置)にそれぞれ配置されるような画像を構成する。
 具体的に、画像構成部20は、例えばフレームバッファを含んで構成されていて、撮像部11~13から例えば画素単位で順次に入力される撮像信号をフレームバッファ内の画素位置に対応するアドレスに格納することにより、第1の画像の各画素および第2の画像の各画素で構成される1フレーム分の画像を構成する。
 照明制御部21は、照明部15~17の各発光量を個別に調整して発光させるものである。すなわち、照明制御部21は、第1の照明部の光量と第2の照明部の光量とを独立に制御する。
 輝度検出部22は、第1の画像の輝度と第2の画像の輝度とをそれぞれ検出する。具体的に、輝度検出部22は、第1の画像および第2の画像を構成する各画素の輝度を検出し、さらに、後述するように、画像を分割した複数の領域Reの輝度を検出する。
 輝度制御部23は、隣接して配置される第1の画像と第2の画像との該隣接部分における輝度差が予め定めた閾値(輝度差閾値)以下になるように、第1の画像と第2の画像との少なくとも一方の輝度を調整する。
 閾値記憶部24は、上述した閾値を不揮発に記憶する。閾値記憶部24は、さらに、後述する下限輝度Ad(図5参照)および上限輝度Au(図3参照)も記憶するようになっている。
 画像出力部25は、輝度制御部23により輝度調整された画像に基づき、第1の画像と第2の画像とが隣接して配置された表示信号を出力する。
 画像出力部25から出力された表示信号を受けて、表示部であるモニタ3は画像を表示する。具体的に、モニタ3の画面には、撮像部11から得られた撮像信号に基づく前方画像31(第1の画像に基づく)が中央に、撮像部12から得られた撮像信号に基づく右側方画像32が前方画像31の右隣に、撮像部13から得られた撮像信号に基づく左側方画像33が前方画像31の左隣に(右側方画像32および左側方画像33は、それぞれ第2の画像に基づく)、それぞれ配置して表示される。
 すなわち、画像構成部20は、第1の画像と第2の画像とが同一画面内において隣接する配置となるように画像を構成するようになっている。そして、観察者から見た各画像31~33の配置は、内視鏡1から見た各視野方向と一致する配置となっていて、あたかも1つの超広角カメラにより観察を行っているかのような画像構成を実現している。
 なお、この図1に示す例では、前方画像31と右側方画像32の間、前方画像31と左側方画像33との間、および前方画像31、右側方画像32、並びに左側方画像33の周辺は、撮像部11~13により取得された画像が表示されていない非画像領域(第1の画像と第2の画像との何れをも構成しない非画像画素でなる領域)が表示されている。
 また、図1に示す例においては、前方画像31、右側方画像32、および左側方画像33を1つのモニタ3に表示しているが、それぞれを別々のモニタに表示しても構わない。すなわち、画像出力部25は、第1の画像と第2の画像とを、1つのモニタ3に表示するための単一表示信号、または複数のモニタ3に表示するための複数表示信号、の何れかとして、表示信号を出力する。
 次に、本実施形態の内視鏡システムにおける輝度調整処理について、図2~図5を参照しながら、図6~図8のフローチャートに沿って説明する。
 本実施形態の内視鏡システムは、図6~図8のフローチャートに示す処理を、予め取得しておいた内視鏡画像に対して後で別途に実行する処理とするのではなく、内視鏡1が取得した内視鏡画像を、ビデオプロセッサ2によってリアルタイムで輝度調整する処理として行うことが特徴である。
 まず、図6は、内視鏡システムの輝度調整処理を示すフローチャートである。
 図示しないメイン処理からこの処理に入ると、画像同士の境界領域を含む非画像領域を処理対象から除外する(ステップS1)。これにより、輝度制御部23が、第1の画像と第2の画像との何れをも構成しない非画像画素(例えば、画像同士の境界領域における非画像画素)については、輝度の調整を行わないことになる。
 次に、輝度検出部22は、例えば、第1の画像と第2の画像とをそれぞれ複数の領域Re(図1参照)に分割して、分割された各領域Reの平均輝度を領域Re毎にそれぞれ算出する(ステップS2)。ここに平均輝度は、領域Re内の画素の輝度を平均したものである。この処理により、境界を挟んで隣接する2つの領域Reの平均輝度も算出される。
 ここに、図2は、視野の異なる複数の画像の輝度分布の例を示す図である。
 まず、領域Reは、1つ以上の画素により構成されている(従って、領域Reを1画素により構成することも可能である)。そして、本実施形態における輝度検出部22は、領域Reを、複数の画素により構成された領域であって、例えば、画像(前方画像31、右側方画像32、および左側方画像33)を水平方向に複数分割した縦長矩形状の領域(図1、図2等参照)として設定する。
 ただし、画像を複数の領域Reに分割する仕方はこれに限定されるものではなく、例えば水平方向および垂直方向に複数分割した格子状の領域に分割しても良いし、後で実施形態2において説明するように、径方向に複数分割した同心状(例えば、同心円状、あるいは同心多角形状等)の領域に分割しても構わないし、その他の分割法を採用しても構わない。
 輝度検出部22が各領域Reの平均輝度Aを計算した結果、画像の輝度分布が例えば図2に示すようになったものとする。
 この図2に示す輝度分布は、管腔形状の被検体内において、内視鏡が例えば左側壁に近付いて右側壁までの距離が遠くなり右側方画像32が暗くなったために、照明部16の光量を増加させて右側方画像32を明るくしたときの状態を示している。すなわち、図2に示すような、境界を挟んで隣接する2つの領域Reにおける大きな輝度差は、例えば照明制御部21によって照明部15~17の光量制御を行うことによって生じる。従って、輝度制御部23は、照明制御部21による光量制御を行った後に取得される第1の画像と第2の画像に対して、輝度の調整を行う。
 このとき、前方画像31と右側方画像32との境界を挟んだ隣接部分、より具体的には、前方画像31側における(n-1)番目の領域Reの平均輝度An-1と、右側方画像32におけるn番目の領域Reの平均輝度Anとの間に、大きな輝度差が生じている。ここに、領域Reの水平位置を示す1,2,…,(n-1),n,…の番号は、左側方画像33から前方画像31を経て右側方画像32への通し番号となっている。
 輝度制御部23は、境界を挟んで隣接する2つの領域Reの輝度差|An-An-1|を算出し(ステップS3)、算出した輝度差|An-An-1|が、閾値記憶部24から読み出した閾値(輝度差閾値)よりも大きいか否かを判定する(ステップS4)。
 ここで、閾値よりも大きいと判定された場合には、輝度制御部23は、さらに、低い方の平均輝度、図2に示す例では平均輝度Anよりも平均輝度An-1の方が低いために、この平均輝度An-1が所定の下限輝度Ad(図5参照)よりも小さいか否かを判定する(ステップS5)。ここに、下限輝度Adは、画像を観察して診断を行うのに適正な輝度範囲の下限を示す輝度である。
 ここで、下限輝度Ad以上であると判定された場合には、続いて、高い方の平均輝度、図2に示す例では平均輝度Anが所定の上限輝度Au(図3参照)よりも大きいか否かを判定する(ステップS6)。ここに、上限輝度Auは、画像を観察して診断を行うのに適正な輝度範囲の上限を示す輝度である。
 このステップS6において上限輝度Au以下であると判定されるか、またはステップS5において下限輝度Adよりも小さいと判定された場合には、後で図7を参照して説明するようなゲインアップ処理を行う(ステップS7)。
 なお、ここでは、低い方の平均輝度が下限輝度Ad以上で、かつ高い方の平均輝度が上限輝度Au以下であると判定された場合にゲインアップ処理を行うようにしているが、これに代えて、ゲインダウン処理を行うようにしても構わない。
 一方、ステップS6において上限輝度Auよりも大きいと判定された場合には、後で図8を参照して説明するようなゲインダウン処理を行う(ステップS8)。
 ステップS4において閾値以下であると判定された場合、またはステップS7もしくはステップS8の処理を行った場合には、さらに画像同士の境界がさらに他に存在しているか否かを判定する(ステップS9)。
 ここで、さらに他の境界が存在していると判定された場合には、ステップS2へ行って、他の境界を挟む領域Reについて上述したような処理を行う。図1および図2に示す例では、前方画像31と右側方画像32との境界だけでなく、さらに前方画像31と左側方画像33との境界が存在するために、ステップS2へ移行することになる。
 こうして、ステップS9において他の境界が存在していないと判定された場合には、この処理から図示しないメイン処理へリターンする。
 図7は、図6のステップS7におけるゲインアップ処理の詳細を示すフローチャートである。
 この処理に入ると、輝度差が閾値以下になるように、平均輝度が低い方の領域Reのゲインアップを行う(ステップS11)。このように、輝度制御部23は、輝度の調整をゲインアップまたは後述するゲインダウンによって行う際に、第1の画像と第2の画像とをそれぞれ複数の領域Reに分割して、分割した領域Reを単位としている。
 例えば、画像の輝度分布が、図5に示すようになっているものとする。ここに、図5は、画像同士の隣接部分の輝度差をゲインアップによって抑制する様子を示す図である。この図5に示す例は、平均輝度An-1と平均輝度Anとの内の、低い方の平均輝度Anが下限輝度Adよりも小さく、図6のステップS5において、ステップS7のゲインアップ処理を行うと判定された例となっている。
 このような場合に、輝度制御部23は、低い方の平均輝度Anに1よりも大きいゲインをかけることにより、平均輝度A'nにゲインアップする。このときのゲインは、製品に合わせて規定値を与えても良いし、ユーザが設定可能となるようにしても良い。
 そして、ゲインアップした領域Reの平均輝度A'nと、境界を挟んで隣接する反対側の領域Reの平均輝度An-1との輝度差|A'n-An-1|が、閾値以下になっていない場合には、1よりも大きいゲインを平均輝度A'nにさらにかける。このような処理を必要に応じて繰り返すことにより、輝度差|A'n-An-1|が、閾値以下になるようにする。なお、ここでは、低い方の平均輝度に、1よりも大きいゲインを、輝度差が閾値以下になるまで、複数回かけるゲインアップ法を用いたが、この方法に限定されるものではなく、任意のゲインアップ法を適宜用いて構わない。
 こうして、境界を挟んで隣接する2つの領域Reの輝度差|A'n-An-1|が閾値以下になるようにしただけでは、輝度の調整を行った領域Reの平均輝度A'nと、この領域Reの境界と反対側に隣接する領域Reの平均輝度An+1と、の輝度差|An+1-A'n|が閾値よりも大きくなってしまうこともあり得る。
 そこで、ゲインアップしたn番目の領域Reと、境界の反対側に隣接する(n+1)番目の領域Reと、の輝度差|An+1-A'n|を算出する(ステップS12)。
 そして、算出した輝度差|An+1-A'n|が、閾値よりも大きいか否かを判定する(ステップS13)。
 ここで、閾値よりも大きいと判定された場合には、ステップS11へ行って、上述したような処理を行う。
 こうしてステップS13において、境界に隣接する領域Reから順に、領域Reを逐次に輝度調整してから算出した輝度差が、閾値以下になったと判定された場合には、この処理から図6に示した処理にリターンする。
 次に、図8は、図6のステップS8におけるゲインダウン処理の詳細を示すフローチャートである。
 この処理に入ると、輝度差が閾値以下になるように、平均輝度が高い方の領域Reのゲインダウンを行う(ステップS21)。
 例えば、画像の輝度分布が、図3に示すようになっているものとする。ここに、図3は、画像同士の隣接部分の輝度差をゲインダウンによって抑制する様子を示す図である。この図3に示す例は、平均輝度An-1と平均輝度Anとの内の、高い方の平均輝度Anが上限輝度Auよりも大きく、図6のステップS6において、ステップS8のゲインダウン処理を行うと判定された例となっている。
 このような場合に、輝度制御部23は、高い方の平均輝度Anに1よりも小さいゲインをかけることにより、平均輝度A'nにゲインダウンする。このときのゲインも、上述と同様に、製品に合わせて規定値を与えても良いし、ユーザが設定可能となるようにしても良い。
 そして、ゲインダウンした領域Reの平均輝度A'nと、境界を挟んで隣接する反対側の領域Reの平均輝度An-1との輝度差|A'n-An-1|が、閾値以下になっていない場合には、1よりも小さいゲインを平均輝度A'nにさらにかける。このような処理を必要に応じて繰り返すことにより、輝度差|A'n-An-1|が、閾値以下になるようにする。なお、ここでは、高い方の平均輝度に、1よりも小さいゲインを、輝度差が閾値以下になるまで、複数回かけるゲインダウン法を用いたが、この方法に限定されるものではなく、任意のゲインダウン法を適宜用いて構わない。
 そして、上述と同様に、ゲインダウンしたn番目の領域Reと、境界の反対側に隣接する(n+1)番目の領域Reと、の輝度差|An+1-A'n|を算出して(ステップS22)、算出した輝度差|An+1-A'n|が、閾値よりも大きいか否かを判定する(ステップS23)。
 ここで、閾値よりも大きいと判定された場合には、ステップS21へ行って、上述したような処理を行う。
 具体的に、図3および図4に示すように、輝度調整後の平均輝度A'nと、境界の反対側に隣接する領域Reの平均輝度An+1との輝度差が、閾値よりも大きくなってしまった場合には、平均輝度An+1を平均輝度A'n+1にゲインダウンして、輝度調整後の輝度差|A'n+1-A'n|が閾値以下となるようにする。ここに、図4は、画像同士の隣接部分にさらに隣接する部分の輝度差をゲインダウンによって抑制する様子を示す図である。
 こうしてステップS23において、境界に隣接する領域Reから順に、領域Reを逐次に輝度調整してから算出した輝度差が、閾値以下になったと判定された場合には、この処理から図6に示した処理にリターンする。
 なお、上述では、輝度制御部23による輝度調整処理を行うか否かを、領域Re内の画素の平均輝度に基づき判定しているが、これに代えて、領域Re内の画素の輝度に重み付けを行った重み付け平均輝度に基づき判定しても良い。例えば、画像を観察する際には、画像の上端や下端に位置する被検体よりも、画像の上下方向における中央部に位置する被検体の方が重要度が高い。そこで、領域Re内の画素の輝度に重み付けを行って加算平均する場合には、上下方向における中央部の画素に大きな重みを付け、上端部や下端部の画素に小さな重みを付ける、等を行うと良い。
 また、境界を挟んで対向する画素ペアの輝度差を算出して、輝度差が閾値よりも大きい画素ペアの割合が所定割合以上であるときに、輝度制御部23による輝度調整処理を行うと判定するようにしても構わない。
 さらに、図6に示した処理では、1つの境界において、ゲインアップとゲインダウンとの何れか一方の処理を行うようにしているが、処理がやや複雑になっても構わなければ、1つの境界を挟んで平均輝度が低い方の領域Reをゲインアップすると共に、平均輝度が高い方の領域Reをゲインダウンする、等の処理を行うようにしても良い。
 このような実施形態1によれば、隣接して配置される第1の画像と第2の画像との隣接部分における輝度差が予め定めた閾値以下になるように、第1の画像と第2の画像との少なくとも一方の輝度を調整するようにしたために、視野の異なる複数の画像の隣接部分の輝度差を抑制して、視認性を高くすることができる。
 また、画像を分割した領域Reを単位として輝度の調整を行うようにしたために、領域Reの内部における輝度差が維持され、領域Reの内部の陰影や立体感を維持することができる。
 さらに、平均輝度に基づく輝度差を算出して閾値と比較し、輝度の調整を行うようにしたために、隣接する領域Re間の輝度差を適切に把握して輝度調整することが可能となる。
 そして、ゲインアップとゲインダウンとの何れか一方により輝度調整を行うようにしたために、比較的簡単な処理で輝度差を低減することが可能となる。
 また、輝度調整を行った領域Reの境界と反対側に隣接する領域Reに対しても輝度の調整を逐次行うようにしたために、画像全体として大きな輝度差が解消された自然な輝度分布の画像を観察することが可能となる。
 例えば、ゲインダウンをゲインアップよりも優先して行う場合には、白飛びに近い明るい部分をより適切で見易い明るさで観察することができる。
 また、ゲインアップをゲインダウンよりも優先して行う場合には、暗部をより適切で見易い明るさで観察することが可能となる。
 非画像画素については、輝度の調整を行わないようにしたために、非画像画素(例えば、画像同士の間や画像の外部となる周辺等)が一定の輝度値に維持され、非画像画素の輝度値が画像毎に変化することがないために、見易い画像となる。
 画像を縦長矩形状の領域Reに分割する場合には、矩形の画像を水平方向に配列して広角画像を観察可能とする際に、視野が異なる画像間の輝度差を良好に低減することができる。
 また、画像を格子状の領域Reに分割する場合には、さらに、垂直方向に生じる輝度差についても低減することが可能となる。
 一方、画像を同心状の領域Reに分割する場合には、径が異なる同心状の画像を複数取得して広角画像を観察可能とする際に、画像間の輝度差を良好に低減することができる。
 照明制御部21による光量制御を行った後に取得される第1の画像と第2の画像に対して輝度の調整を行うようにしたために、各視野毎の平均輝度が最適化されている画像が輝度調整の対象となり、コントラストの低下を抑制し、ノイズの増幅も抑制することができる。
 第1の画像と第2の画像とが隣接して配置された画像を画像構成部20が構成するようにしたために、複数の視野の画像を広角で観察することが可能となる。
 画像出力部25が単一表示信号を出力する場合には、第1の画像と第2の画像とを1つのモニタ3に表示して観察することが可能となる。また、画像出力部25が複数表示信号を出力する場合には、第1の画像と第2の画像とを、複数のモニタ3のそれぞれに表示して観察することが可能となる。
 そして、挿入部1aの前方視野および側方視野の画像を取得するようにしたために、高価で大型な超広角レンズを用いることなく、超広角内視鏡を実現することができる。
 挿入部1aの周方向の複数の角度位置に複数配置された第2の被検体像取得部が複数の第2の撮像信号を取得し、画像構成部20が、第1の撮像信号に基づく第1の画像が中心、複数の第2の撮像信号に基づく複数の第2の画像が第1の画像の周方向の複数の角度位置(図1の例では、周方向の2等分割位置)にそれぞれ配置されるような画像を構成するために、撮像時の視野方向に一致した画像を観察することが可能となる。
 図1に示したような第1の撮像部と第2の撮像部とを別体とした構成において、複数の視野方向の撮像信号を取得することができる。
[実施形態2]
 図9は本発明の実施形態2を示したものであり、内視鏡システムの構成を示す図である。この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。
 本実施形態は、内視鏡1の撮像系の構成を変更し、さらに内視鏡1にLED等の光源を設けるのに代えて、ビデオプロセッサ2内に光源装置26を設けるようにしたものとなっている。
 まず、内視鏡1の挿入部1aの先端部には、挿入部1aの長手方向に沿った前方の光学像(被検体内の前方を含む領域の視野の像)を取得する前方光学系41と、前方光学系41の視野範囲へ光を照射する照明部15と、が設けられている。
 これら前方光学系41および照明部15の基端側近傍となる周面部には、挿入部1aの長手方向に交差する側方における、周方向の所定の角度範囲(所定の角度範囲が360°である場合には、周方向の全周)の光学像(同じ被検体内の前方とは異なる側方を含む領域の視野の像)を取得する側方光学系42と、側方光学系42の視野へ光を照射する照明部43と、が設けられている。
 ここに、前方光学系41と側方光学系42とは、前方の光学像を透過して取得すると共に側方の周方向の所定の角度範囲の光学像を反射して取得する複合光学系として構成しても構わない。
 そして、前方光学系41による前方の光学像と、側方光学系42による側方(周方向)の光学像とは、例えば、単一の撮像素子上における異なる撮像領域に結像されるようになっている。
 従って、本実施形態において、第1の被検体像取得部は、前方光学系41と撮像素子の前方の光学像を撮像する撮像領域とにより構成されていて、挿入部1aの先端部に前方を向けて配置されている。
 また、第2の被検体像取得部は、側方光学系42と撮像素子の側方の周方向の光学像を撮像する撮像領域とにより構成されていて、挿入部1aの周面部に周方向の所定の角度範囲の被検体像を撮像可能に配置されている。
 従って、第1の被検体像取得部と第2の被検体像取得部とは1つの撮像部(撮像素子)を兼用して含み、第1の視野にある被検体の光学像(第1の被検体像)は撮像部の一部に結像して第1の撮像信号が生成され、第2の視野にある被検体の光学像(第2の被検体像)は撮像部の他の一部に結像して第2の撮像信号が生成されることになる。
 撮像素子により生成された第1の撮像信号および第2の撮像信号は、ビデオプロセッサ2へ出力され、ビデオプロセッサ2内の上述した画像構成部20、輝度検出部22、輝度制御部23、画像出力部25へ接続される(すなわち、撮像部は、輝度制御部23に電気的に接続されている)。
 一方、ビデオプロセッサ2には、上述した実施形態1の照明制御部21に代えて、照明光を発光する光源装置26が設けられている。この光源装置26により発光された光は、ライトガイド(LG)27を介して、照明光学系を含んで構成された照明部15および照明部43から、各視野方向の被検体へ照射されるようになっている。
 このような構成の内視鏡1から得られビデオプロセッサ2により処理された画像をモニタ3の画面30に表示すると、例えば図9に示すようになる。
 まず、前方光学系41の光学像は、撮像素子の中央部に円形状の光学像として結像され、撮像素子の光電変換により第1の撮像信号が生成される。この第1の撮像信号に基づき、画像構成部20により円形状の前方画像31Aが構成される。
 また、側方光学系42の光学像は、撮像素子における上述した中央部の円形状の光学像の周囲を囲む円環における所定の角度範囲の円環状の光学像(所定の角度範囲が360°である場合には、円環状の光学像)として結像され、撮像素子の光電変換により第2の撮像信号が生成される。この第2の撮像信号に基づき、画像構成部20により前方画像31Aの外周部の例えば円環状の側方画像32Aが構成される。
 すなわち、画像構成部20は、第1の画像である前方画像31Aを円形状に構成し、第2の画像である側方画像32Aを前方画像31Aの周囲を囲む円環における所定の角度範囲の形状に構成して、画像を構成する。
 さらに、前方光学系41および側方光学系42の構成や配置などが原因となって、前方画像31Aと側方画像32Aとの間には、隙間35が生じている。この隙間35は、撮像素子上において被検体の光学像が結像されない暗部となるために、黒枠状を呈している。従って、隙間35は、第1の画像と第2の画像との何れをも構成しない非画像画素の集合であり、輝度制御部23は、この隙間35については輝度の調整を行わない。
 撮像素子は、一般的に、矩形の撮像面を備えているが、前方光学系41および側方光学系42のイメージサークルは、図9に画像を示しているように、撮像面よりも小さい概略円形状の領域となる。従って、側方画像32Aの周囲にも、第1の画像と第2の画像との何れをも構成しない非画像画素の集合でなる非画像領域36が生じている。
 このような構成において、輝度検出部22および輝度制御部23は、前方画像31Aおよび側方画像32Aを、例えば、径方向に複数分割した同心状(ここでは同心円状としているが、これに限らず、同心多角形状等としても良い)の領域Reに分割して、領域Reを単位として、平均輝度の検出や輝度調整を行うようになっている。
 このような実施形態2によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、挿入部1aの前方の第1の被検体像に係る第1の撮像信号と、挿入部1aの周方向の所定の角度範囲の第2の被検体像に係る第2の撮像信号と、を取得し、画像構成部20が、図9に示したように、第1の画像を円形状に構成し、第2の画像を第1の画像の周囲を囲む円環における所定の角度範囲の形状に構成して、画像信号(画像)を構成する場合においても、撮像時の視野方向に一致した画像を観察することが可能となる。
 また、第1の被検体像取得部と第2の被検体像取得部とで1つの撮像部を兼用する構成を採用すれば、内視鏡先端部の小径化や軽量化を効果的に図ることができる。
 さらに、第1の画像(前方画像31A)と第2の画像(側方画像32A)との境界部分において、第1の画像と第2の画像との少なくとも一方に輝度調整を行う場合に、画像(画像信号)から第1の画像の領域と第2の画像の領域とを分解してそれぞれ切り出し、それぞれに第1の実施形態で述べたのと同様の輝度調整を行い、処理を行った第1の画像と第2の画像とを結合してまた元のような1つの画像に戻す処理を行うようにしても良い。
[実施形態3]
 図10および図11は本発明の実施形態3を示したものであり、図10は側方画像取得ユニット50が装着されている状態の内視鏡の構成を部分的に示す斜視図、図11は側方画像取得ユニット50が取り外されている状態の内視鏡の構成を部分的に示す斜視図である。
 この実施形態3において、上述の実施形態1,2と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。
 本実施形態の内視鏡は、図15および図16に示すように、内視鏡本体1Aと、側方画像取得ユニット50と、を備えている。
 ここに、内視鏡本体1Aは、前方画像31に係る第1の撮像信号を取得する撮像部11と、撮像部11による撮像範囲である前方へ光を照射する照明部15と、鉗子等の処置具を挿通するための鉗子チャンネル19と、を備え、一般的な直視型内視鏡としても使用可能となっている。
 このような内視鏡本体1Aに対して、側方画像取得ユニット50は着脱自在に構成されている。
 この側方画像取得ユニット50は、右側方画像32に係る第2の撮像信号を取得する撮像部12と、撮像部12による撮像範囲である右側方へ光を照射する照明部16と、左側方画像33に係る第2の撮像信号を取得する撮像部13と、撮像部13による撮像範囲である左側方へ光を照射する照明部17と、内視鏡本体1Aに嵌合することで側方画像取得ユニット50を内視鏡本体1Aに取り付けるための嵌合腕部51と、側方画像取得ユニット50の基端側のコードを内視鏡本体1Aに係止するための係止バンド52と、を備えている。
 このような直視の内視鏡本体1Aと、この内視鏡本体1Aに対して着脱自在な側視の側方画像取得ユニット50と、を組み合わせて構成される内視鏡に対しても、上述した各実施形態と同様の、画像間の輝度差を低減する輝度調整が適用可能となっている。
 このような実施形態3の内視鏡を用いても、上述した実施形態1,2とほぼ同様の効果を奏することができると共に、必要に応じて、内視鏡本体1Aのみを直視型内視鏡として用いることが可能となる。あるいは、一般的な直視型内視鏡に対して、側方画像取得ユニット50を組み合わせて用いることにより、前方視野および側方視野の両方を観察可能な広角内視鏡を実現することが可能となる。
 なお、上述では、第1の被検体像取得部および第2の被検体像取得部が内視鏡1に設けられている例と、第1の被検体像取得部が内視鏡本体1Aに設けられ第2の被検体像取得部が側方画像取得ユニット50に設けられている例と、を説明したが、これらに限るものではない。第1の被検体像取得部および第2の被検体像取得部は、例えば撮像光学系と撮像素子とを含んでいるが、これらの内の撮像光学系を内視鏡1(あるいは内視鏡本体1Aおよび側方画像取得ユニット50)に配置し、撮像素子をビデオプロセッサ2内に配置しても構わない。この場合には、撮像光学系により結像された光学像を伝送光学系等を介してビデオプロセッサ2内の撮像素子へ伝送すれば良い。
 そして、上述では主として内視鏡システムについて説明したが、内視鏡システムを上述したように作動させる作動方法であっても良いし、コンピュータに内視鏡システムを上述したように作動させるための処理プログラム、該処理プログラムを記録するコンピュータにより読み取り可能な一時的でない記録媒体、等であっても構わない。
 以上述べた各実施形態の構成によれば、内視鏡システム、特に、直視観察光学系と側視観察光学系とを有する広角内視鏡を有する内視鏡システムにおいて、視野の異なる複数の画像(画像信号)の隣接部分の輝度差が抑制された視認性の高い画像を観察することができる。
 なお、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明の態様を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。
 本出願は、2014年9月9日に日本国に出願された特願2014-183511号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (18)

  1.  同じ被検体内の異なる領域に対応する撮像信号に基づき第1の画像と第2の画像とを構成する画像構成部と、
     前記第1の画像および前記第2の画像における輝度を検出する輝度検出部と、
     隣接して配置される前記第1の画像と前記第2の画像との該隣接部分における輝度差が閾値以下になるように、前記第1の画像と前記第2の画像との少なくとも一方の輝度を調整する輝度制御部と、
     を備えることを特徴とする内視鏡システム。
  2.  前記輝度制御部は、前記第1の画像と前記第2の画像とをそれぞれ複数の領域に分割して、分割した前記領域を単位として、前記輝度の調整を行うことを特徴とする請求項1に記載の内視鏡システム。
  3.  前記輝度検出部は、さらに、前記領域毎の平均輝度を算出し、
     前記輝度制御部は、前記平均輝度に基づき前記輝度差を算出して前記閾値と比較し、前記輝度の調整を行うことを特徴とする請求項2に記載の内視鏡システム。
  4.  前記輝度制御部は、前記第1の画像と前記第2の画像との境界を挟んで隣接する2つの前記領域の内の、前記平均輝度が低い方の前記領域の輝度を上げるゲインアップと、前記平均輝度が高い方の前記領域の輝度を下げるゲインダウンと、の何れか一方を行うことにより前記輝度差が前記閾値以下になるように前記輝度の調整を行うものであり、前記輝度の調整を行った前記第1の画像または前記第2の画像内において、前記輝度の調整を行った前記領域の前記境界と反対側に隣接する前記領域に対しても前記輝度の調整を逐次行うことを特徴とする請求項3に記載の内視鏡システム。
  5.  前記輝度制御部は、前記第1の画像と前記第2の画像との前記境界を挟んで隣接する前記2つの前記領域の内の、前記平均輝度が低い方の前記領域の輝度が所定の下限輝度以上でかつ前記平均輝度が高い方の前記領域の輝度が所定の上限輝度よりも大きい場合に前記ゲインダウンを行い、それ以外の場合に前記ゲインアップを行うことを特徴とする請求項4に記載の内視鏡システム。
  6.  前記輝度制御部は、前記第1の画像と前記第2の画像との何れをも構成しない非画像画素については、前記輝度の調整を行わないことを特徴とする請求項2に記載の内視鏡システム。
  7.  前記輝度制御部は、前記第1の画像および前記第2の画像を、水平方向に複数分割した縦長矩形状、水平方向および垂直方向に複数分割した格子状、または径方向に複数分割した同心状の、複数の前記領域に分割することを特徴とする請求項2に記載の内視鏡システム。
  8.  前記被検体内の第1の領域に光を照射する第1の照明部と、
     前記第1の領域とは異なる、前記被検体内の第2の領域に光を照射する第2の照明部と、
     前記第1の照明部の光量と前記第2の照明部の光量とを独立に制御する照明制御部と、
     をさらに備え、
     前記輝度制御部は、前記照明制御部による光量制御を行った後に前記第1の領域に対応する第1の撮像信号から構成される前記第1の画像と、前記第2の領域に対応する第2の撮像信号から構成される前記第2の画像とに対して、前記輝度の調整を行うことを特徴とする請求項1に記載の内視鏡システム。
  9.  前記画像構成部により構成された、前記第1の画像と前記第2の画像とが隣接して配置された画像に基づき、表示信号を出力する画像出力部をさらに備えることを特徴とする請求項1に記載の内視鏡システム。
  10.  前記画像出力部は、前記第1の画像と前記第2の画像とを、1つの表示部に表示するための単一表示信号、または複数の表示部に表示するための複数表示信号として、前記表示信号を出力することを特徴とする請求項9に記載の内視鏡システム。
  11.  前記被検体の内部に挿入される挿入部と、
     前記挿入部に設けられ、前記挿入部の長手方向に沿った前方を含む前記被検体内の第1の領域の第1の被検体像に係る第1の撮像信号を取得する第1の被検体像取得部と、
     前記挿入部に設けられ、前記第1の領域とは異なる、前記挿入部の長手方向に交差する側方を含む前記被検体内の第2の領域の第2の被検体像に係る第2の撮像信号を取得する第2の被検体像取得部と、
     をさらに備え、
     前記画像構成部は、前記第1の撮像信号に基づき前記第1の画像を構成するとともに、前記第2の撮像信号に基づき前記第2の画像を構成することを特徴とする請求項9に記載の内視鏡システム。
  12.  前記第1の被検体像取得部は、前記挿入部の先端部に前方を向けて配置されており、
     前記第2の被検体像取得部は、前記挿入部の周方向に向けて配置されており、
     前記画像構成部は、前記第1の画像と前記第2の画像とが隣接して配置されるような前記画像を構成することを特徴とする請求項11に記載の内視鏡システム。
  13.  前記第2の被検体像取得部は、前記挿入部の周方向の複数の角度位置に複数配置されていて、複数の前記第2の被検体像に係る複数の第2の撮像信号を取得し、
     前記画像構成部は、前記第1の撮像信号に基づく前記第1の画像が中心、複数の前記第2の撮像信号に基づく複数の前記第2の画像が前記第1の画像の周方向の前記複数の角度位置にそれぞれ配置されるような前記画像を構成することを特徴とする請求項12に記載の内視鏡システム。
  14.  前記第1の被検体像取得部は、前記挿入部の先端部に前方を向けて配置されており、
     前記第2の被検体像取得部は、前記挿入部の周面部に周方向の所定の角度範囲の前記第2の被検体像に係る前記第2の撮像信号を取得可能に配置されていて、
     前記画像構成部は、前記第1の画像を円形状に構成し、前記第2の画像を前記第1の画像の周囲を囲む円環における前記所定の角度範囲の形状に構成して、前記画像を構成することを特徴とする請求項11に記載の内視鏡システム。
  15.  前記被検体の内部に挿入される挿入部と、
     前記挿入部に設けられ、前記被検体内の第1の領域から第1の被検体像に係る第1の撮像信号を取得する第1の被検体像取得部と、
     前記挿入部に設けられ、前記第1の領域とは異なる前記被検体内の第2の領域から第2の被検体像に係る第2の撮像信号を取得する第2の被検体像取得部と、
     をさらに備え、
     前記画像構成部は、前記第1の撮像信号に基づき前記第1の画像を構成するとともに、前記第2の撮像信号に基づき前記第2の画像を構成し、
     前記第1の被検体像取得部は、前記第1の被検体像を光電変換して前記第1の撮像信号を生成する第1の撮像部を含み、
     前記第2の被検体像取得部は、前記第2の被検体像を光電変換して前記第2の撮像信号を生成するものであって、前記第1の撮像部とは別体の第2の撮像部を含み、
     前記第1の撮像部と前記第2の撮像部とは、前記画像構成部に電気的に接続されていることを特徴とする請求項9に記載の内視鏡システム。
  16.  前記被検体の内部に挿入される挿入部と、
     前記挿入部に設けられ、前記被検体内の第1の領域から第1の被検体像に係る第1の撮像信号を取得する第1の被検体像取得部と、
     前記挿入部に設けられ、前記第1の領域とは異なる前記被検体内の第2の領域から第2の被検体像に係る第2の撮像信号を取得する第2の被検体像取得部と、
     をさらに備え、
     前記画像構成部は、前記第1の撮像信号に基づき前記第1の画像を構成するとともに、前記第2の撮像信号に基づき前記第2の画像を構成し、
     前記第1の被検体像取得部と前記第2の被検体像取得部とは1つの撮像部を兼用して含み、前記第1の被検体像は前記撮像部の一部に結像して前記第1の撮像信号が生成され、前記第2の被検体像は前記撮像部の他の一部に結像して前記第2の撮像信号が生成され、
     前記撮像部は、前記画像構成部に電気的に接続されていることを特徴とする請求項9に記載の内視鏡システム。
  17.  前記被検体の内部に挿入される挿入部と、
     前記被検体内の第1の領域、および前記第1の領域とは異なる前記被検体内の第2の領域へ光を照射する照明部と、
     前記挿入部に設けられ、前記第1の領域の第1の被検体像に係る第1の撮像信号を取得する第1の被検体像取得部と、
     前記挿入部に設けられ、前記第2の領域の第2の被検体像に係る第2の撮像信号を取得する第2の被検体像取得部と、
     をさらに備え、
     前記画像構成部は、前記第1の撮像信号に基づき前記第1の画像を構成するとともに、前記第2の撮像信号に基づき前記第2の画像を構成し、
     前記輝度検出部は、前記第1の画像の輝度と前記第2の画像の輝度とをそれぞれ検出することを特徴とする請求項1に記載の内視鏡システム。
  18.  被検体内の第1の領域、および前記第1の領域とは異なる前記被検体内の第2の領域へ光を照射する照明部を備える内視鏡システムの作動方法であって、
     挿入部に設けられた第1の被検体像取得部が、前記第1の領域の第1の被検体像に係る第1の撮像信号を取得するステップと、
     前記挿入部に設けられた第2の被検体像取得部が、前記第2の領域の第2の被検体像に係る第2の撮像信号を取得するステップと、
     画像構成部が、前記第1の撮像信号に基づき第1の画像を構成するとともに、前記第2の撮像信号に基づき第2の画像を構成するステップと、
     輝度検出部が、前記第1の画像の輝度と前記第2の画像の輝度とをそれぞれ検出するステップと、
     輝度制御部が、隣接して配置される前記第1の画像と前記第2の画像との該隣接部分における輝度差が閾値以下になるように、前記第1の画像と前記第2の画像との少なくとも一方の輝度を調整するステップと、
     を有することを特徴とする内視鏡システムの作動方法。
PCT/JP2015/075216 2014-09-09 2015-09-04 内視鏡システム、内視鏡システムの作動方法 WO2016039270A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201580012938.8A CN106102553B (zh) 2014-09-09 2015-09-04 内窥镜***、内窥镜***的工作方法
EP15839553.3A EP3103380A4 (en) 2014-09-09 2015-09-04 Endoscope system and method for operating endoscope system
JP2016506709A JP5953454B1 (ja) 2014-09-09 2015-09-04 内視鏡システム、内視鏡システムの作動方法
US15/258,563 US10021312B2 (en) 2014-09-09 2016-09-07 Endoscope system and method for operating endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-183511 2014-09-09
JP2014183511 2014-09-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/258,563 Continuation US10021312B2 (en) 2014-09-09 2016-09-07 Endoscope system and method for operating endoscope system

Publications (1)

Publication Number Publication Date
WO2016039270A1 true WO2016039270A1 (ja) 2016-03-17

Family

ID=55459018

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/075216 WO2016039270A1 (ja) 2014-09-09 2015-09-04 内視鏡システム、内視鏡システムの作動方法

Country Status (5)

Country Link
US (1) US10021312B2 (ja)
EP (1) EP3103380A4 (ja)
JP (1) JP5953454B1 (ja)
CN (1) CN106102553B (ja)
WO (1) WO2016039270A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3520673A4 (en) * 2016-10-03 2019-09-18 FUJIFILM Corporation ENDOSCOPE SYSTEM AND METHOD OF OPERATION

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020188969A1 (ja) * 2019-03-19 2020-09-24 ソニー・オリンパスメディカルソリューションズ株式会社 医療用制御装置及び医療用観察装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320616A (ja) * 2000-02-29 2001-11-16 Matsushita Electric Ind Co Ltd 撮像システム
JP2002017667A (ja) * 1991-03-11 2002-01-22 Olympus Optical Co Ltd 画像処理装置
JP2007190060A (ja) * 2006-01-17 2007-08-02 Olympus Corp 内視鏡装置
JP2012157577A (ja) * 2011-02-01 2012-08-23 Olympus Medical Systems Corp 内視鏡
JP2013066646A (ja) * 2011-09-26 2013-04-18 Olympus Medical Systems Corp 内視鏡用画像処理装置、内視鏡装置及び画像処理方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6972796B2 (en) * 2000-02-29 2005-12-06 Matsushita Electric Industrial Co., Ltd. Image pickup system and vehicle-mounted-type sensor system
JP2003179785A (ja) * 2001-12-11 2003-06-27 Pentax Corp 画像撮影装置
JP4390440B2 (ja) * 2002-10-31 2009-12-24 Hoya株式会社 内視鏡用自動調光装置および電子内視鏡装置
JP5390943B2 (ja) * 2008-07-16 2014-01-15 キヤノン株式会社 画像処理装置及び画像処理方法
CN101834996B (zh) * 2009-03-11 2012-06-06 北京汉王智通科技有限公司 高清车辆抓拍***的光通量控制方法
WO2012056453A2 (en) 2010-10-28 2012-05-03 Peermedical Ltd. Optical systems for multi-sensor endoscopes
WO2011055640A1 (ja) 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡
WO2011055613A1 (ja) 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡システム
CN103299238B (zh) * 2011-01-06 2016-05-18 富士胶片株式会社 成像装置及其发光量控制方法
JP5865606B2 (ja) * 2011-05-27 2016-02-17 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
US8672838B2 (en) * 2011-08-12 2014-03-18 Intuitive Surgical Operations, Inc. Image capture unit in a surgical instrument
JP5973707B2 (ja) * 2011-10-14 2016-08-23 オリンパス株式会社 三次元内視鏡装置
JP5758326B2 (ja) 2012-02-28 2015-08-05 三菱重工業株式会社 出力平滑化装置、出力平滑化方法及びプログラム
JP2014073143A (ja) * 2012-10-02 2014-04-24 Canon Inc 内視鏡システム
JP5730339B2 (ja) * 2013-01-25 2015-06-10 富士フイルム株式会社 立体内視鏡装置
CN103860129B (zh) * 2014-03-19 2015-01-07 深圳市开立科技有限公司 内窥镜光源亮度自动调节的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002017667A (ja) * 1991-03-11 2002-01-22 Olympus Optical Co Ltd 画像処理装置
JP2001320616A (ja) * 2000-02-29 2001-11-16 Matsushita Electric Ind Co Ltd 撮像システム
JP2007190060A (ja) * 2006-01-17 2007-08-02 Olympus Corp 内視鏡装置
JP2012157577A (ja) * 2011-02-01 2012-08-23 Olympus Medical Systems Corp 内視鏡
JP2013066646A (ja) * 2011-09-26 2013-04-18 Olympus Medical Systems Corp 内視鏡用画像処理装置、内視鏡装置及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3103380A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3520673A4 (en) * 2016-10-03 2019-09-18 FUJIFILM Corporation ENDOSCOPE SYSTEM AND METHOD OF OPERATION

Also Published As

Publication number Publication date
US20160381273A1 (en) 2016-12-29
JP5953454B1 (ja) 2016-07-20
EP3103380A4 (en) 2017-11-29
CN106102553A (zh) 2016-11-09
CN106102553B (zh) 2018-09-28
US10021312B2 (en) 2018-07-10
JPWO2016039270A1 (ja) 2017-04-27
EP3103380A1 (en) 2016-12-14

Similar Documents

Publication Publication Date Title
US9554097B2 (en) Endoscope image processing device, endoscope system, and image processing method
JP5814698B2 (ja) 自動露光制御装置、制御装置、内視鏡装置及び内視鏡装置の作動方法
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP5698476B2 (ja) 内視鏡システム、内視鏡システムの作動方法及び撮像装置
US10602916B2 (en) Endoscope system that adjusts luminance of frame image including images of a pluraliry of regions and actuating method for endoscope system
US20170230634A1 (en) Image pickup system
US10548465B2 (en) Medical imaging apparatus and medical observation system
WO2016072237A1 (ja) 内視鏡システム
US20180284576A1 (en) Imaging apparatus, imaging method, and program
US20130184530A1 (en) Endoscope apparatus and brightness control method
US20120092471A1 (en) Endoscopic device
JP5953454B1 (ja) 内視鏡システム、内視鏡システムの作動方法
JP7230174B2 (ja) 内視鏡システム、画像処理装置および画像処理装置の制御方法
US20160374545A1 (en) Endoscope system
JP2014228851A (ja) 内視鏡装置、画像取得方法および画像取得プログラム
US10893247B2 (en) Medical signal processing device and medical observation system
JP2024507108A (ja) 内視鏡カメラ関心領域の自動露出
WO2016080351A1 (ja) 撮像装置、画像処理装置、撮像装置の作動方法
JP6503522B1 (ja) 画像処理装置、画像処理システムおよび画像処理方法
JP5420202B2 (ja) 内視鏡装置
JP2011000208A (ja) 撮像装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016506709

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15839553

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015839553

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015839553

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE