WO2021166103A1 - 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法 - Google Patents

内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法 Download PDF

Info

Publication number
WO2021166103A1
WO2021166103A1 PCT/JP2020/006444 JP2020006444W WO2021166103A1 WO 2021166103 A1 WO2021166103 A1 WO 2021166103A1 JP 2020006444 W JP2020006444 W JP 2020006444W WO 2021166103 A1 WO2021166103 A1 WO 2021166103A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional
lumen
information
image
feature point
Prior art date
Application number
PCT/JP2020/006444
Other languages
English (en)
French (fr)
Inventor
潤 羽根
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2022501464A priority Critical patent/JP7423740B2/ja
Priority to CN202080096381.1A priority patent/CN115087385A/zh
Priority to PCT/JP2020/006444 priority patent/WO2021166103A1/ja
Publication of WO2021166103A1 publication Critical patent/WO2021166103A1/ja
Priority to US17/888,907 priority patent/US20220398771A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Definitions

  • the present invention relates to an endoscopic system, a luminal structure calculation device, and a method for creating luminal structure information.
  • Endoscopes are widely used in the medical and industrial fields. For example, in the medical field, a doctor inserts an insertion part of an endoscope into a subject, and observes the inside of the subject by looking at an endoscopic image displayed on a display device, such as endoscopy. It can be performed.
  • the 3D model structure is calculated only from the endoscopic image.
  • the coordinates of a plurality of feature points on the inner wall of the intestinal tract in the endoscopic image are obtained, and the three-dimensional model structure is created so as to connect the plurality of feature points.
  • the present invention has been made in view of the above-mentioned problems, and is an endoscopic system capable of calculating a three-dimensional model structure of a lumen from the position of each feature point even if an image defect occurs due to the movement of an organ or the like. It is an object of the present invention to provide a lumen structure calculation device and a method for creating lumen structure information.
  • the endoscopic system includes an insertion portion inserted into a lumen to be a subject, an imaging unit provided in the insertion portion to acquire an image of the subject, a position of the imaging unit, and the position of the imaging unit.
  • the lumen structure calculation device of one aspect of the present invention includes an image captured by an imaging unit provided in an insertion portion inserted into a lumen to be a subject, a position of the imaging unit detected by the detection device, and a position of the imaging unit.
  • An input unit that acquires a three-dimensional arrangement including at least a part of orientation information, a lumen structure calculation unit that calculates a three-dimensional structure of the lumen based on the captured image and the three-dimensional arrangement, and a lumen structure calculation unit. Equipped with.
  • the endoscopic system is provided with an insertion portion inserted into a lumen to be a subject, a detection device for detecting a three-dimensional arrangement of the tip portion of the insertion portion, and the tip portion.
  • a distance sensor that detects the distance from the tip to the inner wall of the lumen, and a lumen structure calculation unit that calculates the three-dimensional structure of the lumen based on the distance and the three-dimensional arrangement. do.
  • the lumen structure calculation device of one aspect of the present invention is for detecting a three-dimensional arrangement including at least a part of information on the position and orientation of an imaging unit provided in an insertion portion inserted into a lumen to be a subject.
  • An input unit that acquires the three-dimensional arrangement detected by the detection device and the distance detected by the distance sensor provided at the tip portion and detecting the distance from the tip portion to the inner wall of the lumen.
  • a lumen structure calculation unit that calculates the three-dimensional structure of the lumen based on the three-dimensional arrangement and the distance.
  • the method for creating the lumen structure information is to acquire an image of the subject acquired by the insertion portion inserted into the lumen to be the subject, and at least the position and orientation of the insertion portion. It includes detecting a three-dimensional arrangement including one piece of information, and calculating the three-dimensional structure of the lumen based on the captured image and the three-dimensional arrangement.
  • FIG. 5 is a perspective view of an endoscope in which a plurality of magnetic sensors are arranged in an insertion portion according to an embodiment of the present invention. It is a figure which shows the display example of the monitor when there is a hidden part which concerns on embodiment of this invention. It is a flowchart which shows the example of the flow of the notification processing of the unobserved area by the luminance value of an image which concerns on embodiment of this invention. It is a flowchart which shows the example of the flow of the notification processing of the unobserved area by the distance image of the distance sensor which concerns on embodiment of this invention.
  • FIG. 1 is a configuration diagram of an endoscope system according to the present embodiment.
  • FIG. 2 is a perspective view of the endoscope.
  • FIG. 3 is a block diagram showing the configuration of the endoscope system 1.
  • the endoscope system 1 includes an endoscope 2, an image processing device 3, a light source device 4, a lumen structure detection device 5, a monitor 6 as a display device, and a magnetic field generator 7. ing.
  • the endoscope system 1 is capable of normal light observation using white illumination light. The doctor can use the endoscopy system 1 to perform endoscopy in the large intestine of patient Pa lying on his back on the bed 8.
  • the luminal structure detection device 5 is a luminal structure calculation device that calculates the luminal structure of the large intestine of the patient Pa.
  • the magnetic field generator 7 is an independent device here, it may be included in the lumen structure detection device 5.
  • the endoscope 2 has an operation portion 2a, a flexible insertion portion 2b, and a universal cable 2c including a signal line and the like.
  • the endoscope 2 is a tubular insertion device that inserts a tubular insertion portion 2b into a body cavity.
  • a connector is provided at the tip of the universal cable 2c, and the endoscope 2 is detachably connected to the light source device 4 and the image processing device 3 by the connector.
  • the endoscope 2 is an endoscope that can be inserted into the large intestine.
  • a light guide is inserted in the universal cable 2c, and the endoscope 2 is configured to emit the illumination light from the light source device 4 from the tip of the insertion portion 2b through the light guide. Has been done.
  • the insertion portion 2b has a tip portion 11, a bendable bending portion 12, and a flexible tube portion 13 from the tip end to the base end of the insertion portion 2b.
  • the insertion portion 2b is inserted into the lumen of the patient Pa, which is the subject.
  • the base end portion of the tip portion 11 is connected to the tip end of the curved portion 12, and the base end portion of the curved portion 12 is connected to the tip end of the flexible pipe portion 13.
  • the tip portion 11 is a tip portion of the insertion portion 2b, that is, a tip portion of the endoscope 2, and is a hard tip portion.
  • the curved portion 12 can be curved in a desired direction in response to an operation on the curved operating member 14 (left-right bending operation knob 14a and vertical bending operation knob 14b) provided on the operation unit 2a.
  • the curved portion 12 is curved, the position and orientation of the tip portion 11 are changed, and the observation portion in the subject is captured in the observation field of view, the illumination light is applied to the observation portion.
  • the curved portion 12 has a plurality of curved pieces (not shown) connected along the longitudinal axis direction of the insertion portion 2b. Therefore, the doctor can observe the inside of the large intestine of the patient Pa by bending the curved portion 12 in various directions while pushing the insertion portion 2b into the large intestine or pulling it out from the large intestine.
  • the left-right bending operation knob 14a and the up-down bending operation knob 14b are inserted into the insertion portion 2b to pull and relax the operation wire in order to bend the bending portion 12.
  • the bending operating member 14 further has a fixing knob 14c for fixing the position of the curved bending portion 12.
  • the operation unit 2a is also provided with various operation buttons such as a release button and an air supply / water supply button.
  • the flexible tube portion 13 has flexibility and bends in response to an external force.
  • the flexible tube portion 13 is a tubular member extending from the operating portion 2a.
  • an image sensor 15 which is an image pickup device is provided at the tip end portion 11 of the insertion portion 2b, and an observation portion in the large colon illuminated by the illumination light of the light source device 4 is imaged.
  • the image is taken by the element 15. That is, the image pickup device 15 is provided at the tip end portion 11 of the insertion portion 2b, and constitutes an imaging unit that images the inside of the subject at a plurality of time points and acquires images taken at the plurality of time points.
  • the image pickup signal obtained by the image pickup device 15 is supplied to the image processing device 3 via the signal line in the universal cable 2c.
  • the image processing device 3 is a video processor that performs predetermined image processing on the received imaging visual number and generates an endoscopic image.
  • the video signal of the generated endoscopic image is output from the image processing device 3 to the monitor 6, and the live endoscopic image is displayed on the monitor 6.
  • the doctor performing the examination can insert the tip 11 of the insertion portion 2b through the anus of the patient Pa and observe the inside of the large intestine of the patient Pa.
  • a magnetic sensor 16 is arranged at the tip portion 11 of the insertion portion 2b.
  • the magnetic sensor 16 is a detection device that is arranged near the image pickup device 15 at the tip portion 11 and detects the position and orientation of the viewpoint of the image pickup device 15.
  • the magnetic sensor 16 has two coils 16a and 16b.
  • the magnetic sensor 16 is a 6-axis sensor and detects the position coordinates and orientation (that is, Euler angles) of the tip portion 11.
  • the signal line 2e of the magnetic sensor 16 extends from the endoscope 2 and is connected to the lumen structure detection device 5.
  • the magnetic sensor 16 can be arranged inside the tip portion 11 of the insertion portion 2b, and the endoscope 2 having the insertion portion 2 has the magnetic sensor 16. It does not affect the size and performance.
  • the magnetic field generator 7 generates a predetermined magnetic field
  • the magnetic sensor 16 detects the magnetic field generated by the magnetic field generator 7.
  • the magnetic field generator 7 is connected to the lumen structure detection device 5 by a signal line 2e.
  • the magnetic field detection signal is supplied from the endoscope 2 to the lumen structure detection device 5 via the signal line 2e.
  • a magnetic field generating element is provided at the tip 11 instead of the magnetic sensor 16, and a magnetic sensor is provided outside the patient Pa instead of the magnetic field generator 7 to detect the position and orientation of the tip 11. It may be.
  • the magnetic sensor 16 detects the position and orientation of the tip portion 11, in other words, the position and orientation of the viewpoint of the endoscopic image acquired by the image pickup device 15 in real time.
  • the release button operation signal is input to the image processing device 3, and the endoscopic image when the release button is pressed is recorded on a recorder (not shown). ..
  • the lumen structure detection device 5 includes a processor 21, a storage device 22, a display interface (hereinafter abbreviated as display I / F) 23, an image acquisition unit 24, and a position and orientation. It includes a detection unit 25, a drive circuit 26, and an input interface (hereinafter abbreviated as input I / F) 27.
  • the processor 21, the storage device 22, the display I / F 23, the image acquisition unit 24, the position / orientation detection unit 25, the drive circuit 26, and the input I / F 27 are connected to each other by a bus 28.
  • the processor 21 is a control unit that has a central processing unit (hereinafter referred to as a CPU) 21a and a memory 21b, and controls the processing of each part in the lumen structure detection device 5.
  • the memory 21b is a storage unit including a ROM, a RAM, and the like. Various processing programs and various data executed by the CPU 21a are stored in the ROM.
  • the CPU 21a can read and execute various programs stored in the ROM and the storage device 22.
  • the storage device 22 stores a lumen structure calculation program LSP, which will be described later.
  • the lumen structure calculation program LSP is a software program that calculates the lumen structure from information on the position and posture of the tip portion 11 and an endoscopic image.
  • the processor 21 determines the three-dimensional arrangement (that is, the position and orientation) of the image captured image obtained by the image sensor 15 and the image pickup unit detected by the magnetic sensor 16. Based on the above, a cavity structure calculation unit for calculating the three-dimensional structure of the lumen is configured.
  • the storage device 22 also stores the calculated luminal structure information and the like.
  • the lumen structure information stored in the storage device 22 is output via the display I / F 23 and displayed on the screen of the monitor 6.
  • the lumen is the large intestine, and the lumen structure image of the large intestine is displayed on the monitor 6.
  • the monitor 6 has a PinP (Picture In Picture) function, and together with the lumen structure image of the large intestine generated by the CPU 21, a live endoscope image obtained by imaging with the image sensor 15 of the endoscope 2 is displayed. Can be displayed.
  • PinP Picture In Picture
  • the image capture unit 24 is a processing unit that captures the endoscopic image obtained by the image processing device 3 at regular intervals. For example, 30 endoscope images per second, which are the same as the frame rate, are acquired from the endoscope 2 from the image processing device 3. Here, the image capturing unit 24 captures 30 endoscopic images per second, but the endoscopic images are different from the frame rate, for example, 3 images per second. May be obtained.
  • the position / orientation detection unit 25 controls the drive circuit 26 that drives the magnetic field generator 7 to generate a predetermined magnetic field in the magnetic field generator 7.
  • the position / orientation detection unit 25 detects the magnetic field with the magnetic sensor 16, and from the detection signal of the detected magnetic field, the position coordinates (x, y, z) and the direction (that is, the oiler angle ( ⁇ , ⁇ )) of the image pickup element 15 , ⁇ )) data, that is, position and orientation information, is generated in real time. That is, the position / orientation detection unit 25 is a detection device that detects a three-dimensional arrangement including at least a part of information on the position and orientation of the image sensor 15 based on the detection signal from the magnetic sensor 16.
  • the position / orientation detection unit 25 detects the three-dimensional arrangement time change information which is the information of the change of the three-dimensional arrangement with the passage of time. Therefore, the position / orientation detection unit 25 acquires the three-dimensional arrangement information of the insertion units 2b at a plurality of time points.
  • An input device 27a such as a mouse and a keyboard is connected to the lumen structure detection device 5.
  • the operation signal corresponding to the operation on the input device 27a is input to the processor 21 via the input I / F 27.
  • the light source device 4 is a light source device capable of emitting normal light for the normal light observation mode.
  • the light source device 4 uses the normal light for the normal light observation mode and the special light for the special light observation mode. And are selectively emitted.
  • the light source device 4 emits either normal light or special light as illumination light according to the state of a changeover switch (not shown) for switching the observation mode provided in the image processing device 3. (Calculation of luminal structure)
  • FIG. 4 is a flowchart showing an example of the flow of the calculation process of the lumen structure of the lumen structure calculation program LSP. When the doctor presses a predetermined operation button of the input device 27a, the lumen structure calculation program LSP is executed.
  • FIG. 5 is a diagram for explaining the state of the patient Pa when the initial value of the tip portion 11 is set. As shown in FIG. 5, the doctor sets the reference position and the reference posture of the tip 11 in the position AP of the anus in the three-dimensional space as initial values with the tip 11 in contact with the anus.
  • the luminal structure calculated by the following processing is calculated based on the reference position and reference posture set here.
  • the doctor After setting the reference position and reference posture, the doctor inserts the tip 11 to the innermost part of the large intestine. From the state where the tip 11 of the insertion portion 2b is in the innermost part of the large intestine, the doctor moves the insertion portion 2b toward the anus while blowing air to expand the inside of the large intestine, and inserts the insertion portion 2b in the middle. While stopping the pulling out of the portion 2b, the curved portion 12 is curved in various directions to observe the inner wall of the large intestine. When the doctor is observing the inner wall of the large intestine, the luminal structure of the large intestine is calculated.
  • the image capturing unit 24 acquires an endoscopic image at a predetermined period ⁇ t from the endoscopic image supplied from the image processing device 3 every 1 / 30th of a second (S2).
  • the period ⁇ t is, for example, 0.5 seconds.
  • the CPU 21 acquires information on the position and orientation of the tip portion 11 output by the position / orientation detection unit 25 when the endoscopic image is acquired (S3).
  • the position information in the three-dimensional space such as a plurality of feature points in one endoscopic image acquired in S2 and one or more endoscopic images acquired before that (S4).
  • the set of the calculated position information such as a plurality of feature points becomes the information of the lumen structure.
  • the position information of each feature point may be calculated from the image information by using a method such as SLAM (Simultaneus Localization and Mapping), SfM (Structure from Motion), or using the principle of triangulation. It may be calculated. The method of calculating the position of each feature point will be described later.
  • each feature point in the three-dimensional space is calculated from a group, that is, one set of feature points and the position and orientation of the imaging unit, and a part of the lumen structure is constructed from one set of feature points, etc. Because it expands and contracts, 1) whether the calculated two sets of feature points correspond to each other, and 2) whether the calculated feature points correspond to the feature points whose positions have already been calculated, etc. It is judged. For example, in the case of the determination of 1), the range of movement of the calculated one set of feature points relative to the other one set of feature points is the expansion / contraction rate of the large intestine intestine in the directions of the x, y, and z axes. Specified by.
  • the calculated two sets of feature points are not determined to be the same. That is, it is not determined that the calculated feature points of one set are the same as the feature points of the other set whose positions have already been calculated. This means that a part of one feature point of the calculated two sets is not included in the other feature point of the two sets whose positions have already been calculated.
  • the spatial range of movement of the calculated feature points is defined by the distance from the fixed part of the large intestine intestine and the expansion / contraction rate of the large intestine intestine.
  • the fixed portion of the large intestine intestinal tract as used herein refers to a portion that has no mesentery, is fixed to the posterior abdominal wall, and has low mobility, such as a portion near the anus and a portion of the ascending colon and descending colon of the large intestine.
  • the calculated feature point will be the distance from the fixed part of the intestinal tract.
  • the calculated feature point is the same as the feature point whose position has already been calculated. This is one of the calculated two sets.
  • the region of the lumen containing the feature points and the like of the above is a different part from the region of the lumen containing the other feature points and the like of the two sets whose positions have already been calculated.
  • the range of existence of the middle part of the sigmoid colon can be confirmed in consideration of the distance from the fixed parts on both sides of the intestinal tract.
  • the rectum and descending colon, excluding the sigmoid rectum, are the fixation points, and in the middle part of the sigmoid colon, the distance from the connection between the upper rectum and the sigmoid colon and the SD junction, which is the connection between the sigmoid colon and the descending colon.
  • Distance can be two constraint conditions.
  • FIG. 6 is a diagram showing an example of a schematic partial model in the large intestine.
  • one three-dimensional partial model (partial lumen structure) is generated by one set of feature point groups. Therefore, as shown in FIG. 6, in the ascending colon of the large intestine intestinal tract C, Although there is a misalignment between two adjacent three-dimensional partial models PM1, PM2, PM3, a three-dimensional model of the large intestine including a plurality of three-dimensional partial models PM1, PM2, PM3 is generated.
  • the processor 21 as the cavity structure calculation unit calculates a plurality of partial three-dimensional structures that are a part of the three-dimensional structure, and a plurality of parts are based on the three-dimensional arrangement when each partial three-dimensional structure is created. By determining the arrangement of the partial three-dimensional structure of, the three-dimensional structure of the large intestinal tract C is calculated.
  • FIG. 7 is a diagram showing an example of a schematic partial model in the large intestine. If each feature point of the two three-dimensional partial models (partial lumen structure) is within the distance from the upper end FPU of one fixed portion FP of the large intestine intestinal tract C by a predetermined expansion / contraction rate, the position has already been calculated. It is judged to be the same as the feature point. In FIG. 7, the distance from the upper end FPU of each of the partial models PM4 and PM5 (the distance indicated by the arrow in FIG. 7) is within the range of the distance multiplied by a predetermined expansion / contraction rate. As shown in FIG.
  • each feature point of the two partial models PM4 and PM5 is within the range of the distance obtained by multiplying the fixed portion FP of the large intestine intestinal tract by a predetermined expansion / contraction rate, they are generated as separate models and 2 The two partial models PM4 and PM5 are separated.
  • the two partial models PM4 and PM5 may be generated separately, or the misalignment of the two partial models PM4 and PM5 may be corrected.
  • FIG. 8 is a diagram for explaining a method of correcting the misalignment of the two partial models PM4 and PM5. As shown in FIG. 8, the two partial models PM4 and PM5 with the misalignment shown in FIG. 7 are corrected for the misalignment.
  • the processor 21 compares the difference in the distance from the similar feature points to the fixed portion with a predetermined reference value to make them similar. It is determined whether or not the feature point to be used is a feature point common to the three-dimensional structure of the number.
  • the partial models PM4 and PM5 are position-corrected and arranged so that the lateral positions of the upper FPUs of the fixed portion FPs match based on the common feature points.
  • the two distances (horizontal distances indicated by arrows in FIG. 8) from the upper end FPUs of the partial models PM4 and PM5 are the two lateral distances (horizontal directions) of the partial models PM4 and PM5 in FIG. 7, respectively. Match.
  • the large intestine intestinal tract C which is a lumen, has a fixed portion fixed from the outside and a movable portion (transverse colon) not fixed from the outside, and the processor 21 is a portion corresponding to the movable portion.
  • the distance between the three-dimensional structure and the fixed portion is calculated, and the arrangement of the partial three-dimensional structure is corrected based on the distance between the partial three-dimensional structure and the fixed portion.
  • the processor 21 calculates a plurality of partial three-dimensional structures including the position information of each feature point, and corrects the arrangement of the partial three-dimensional model based on the positions of the feature points common to the plurality of three-dimensional structures. ..
  • Models can be integrated as one model.
  • the processor 21 can estimate the positions of the fixed portion and the movable portion by determining at least one of the direction change location and the retention location of the insertion portion 2b based on the three-dimensional arrangement time change information.
  • One predetermined stretch ratio may be set for the entire large intestine, but the stretch ratio of the part near the anus, the ascending colon and the descending colon of the large intestine, and the part other than the part near the anus, the ascending colon and the descending colon of the large intestine
  • the upper limit of the expansion / contraction rate of other parts may be different. That is, a predetermined upper limit value (threshold value) of the expansion / contraction rate in the three-dimensional space of each feature point set for each region of the lumen may be used for calculating the position of each feature point.
  • the amount of change in the position of each detected feature point is within the range determined by the expansion / contraction rate upper limit value (threshold value).
  • the amount of change in the position of the detected feature points is equal to or less than a predetermined upper limit of the expansion / contraction rate, it is determined that each feature point shown in each captured image is the same.
  • the upper limit of the expansion / contraction rate for each region of the lumen containing each feature point or the upper limit of the amount of change in the position of each feature point based on the distance from the fixed point of the large intestine intestinal tract and the upper limit value of the expansion / contraction rate. (Threshold) [0] may be taken into consideration when calculating the position of each feature point. Then, using a predetermined upper limit of the expansion / contraction rate of each feature point set for each region of the lumen, it is determined whether or not the common feature points shown in the plurality of captured images are the same.
  • the position information to be the structural information such as feature points is determined based on the information between the feature points and the like. For example, in a simple case, the information of one of the feature points is adopted as the position information as the structural information.
  • the range determined by the expansion / contraction rate is the range based on the distance from the fixed point of the large intestine intestinal tract and the upper limit value of the expansion / contraction rate in the area of the lumen including each feature point.
  • the calculated position information such as a plurality of feature points is added to the structural information data to create the structural information of the lumen (S5).
  • the structural information created in S5 is composed of a set of one or more feature points in the region observed by the endoscope 2.
  • FIG. 9 is a diagram showing an example of an image displayed on the monitor 6.
  • the display screen 6a of the monitor 6 includes an endoscope image display area 31 and a structural information display area 32.
  • the structural information display area 32 is arranged next to the endoscope image display area 31 for displaying the endoscope image which is a live view.
  • the structure information display area 32 displays the structure information SI generated in S5.
  • the structural information SI is an image when the three-dimensional luminal structure of the large intestine is viewed from one viewpoint, and is composed of position information such as a plurality of feature points.
  • FIG. 10 is a diagram showing an example of an image of the structural information SI displayed in the structural information display area 32.
  • the structural information SI is displayed as a perspective view of the lumen of the large intestine. Since the structural information SI is 3D data, the user, that is, the doctor can confirm the structure of the lumen when viewed in a desired direction of 360 degrees by giving an instruction to change the viewpoint position.
  • the structural information SI is a set of information such as feature points calculated in S4. Therefore, the portion not indicated by the structural information SI means an unobserved portion UIA.
  • the vicinity of the region indicated by the dotted line is the unobserved portion UIA. Therefore, the doctor can grasp the unobserved portion UIA by looking at the luminal structure of the large intestine displayed on the monitor 6.
  • FIG. 11 is a diagram showing an example of an image showing the locus of the tip portion 11 displayed on the monitor 6.
  • FIG. 11 shows an image of one window 33 displayed on the display screen 6a of the monitor 6.
  • an image showing the movement of the tip portion 11 in the XY plane as viewed from the Z-axis direction is displayed.
  • the locus of the tip portion 11 is displayed so that the moving distance in the XY direction can be seen in millimeters, with a predetermined point on the XY plane as 0.
  • the doctor can grasp the locus of the tip portion 11 by displaying the image of FIG. 11 on the monitor 6.
  • the trajectories of the tip 11 of two doctors can be compared based on the position information of the tip 11.
  • the operation of inserting the same patient Pa into the large intestine of the insertion portion 2b can be compared from the locus of the tip portion 11 generated from the position information of the tip portions 11 of the two doctors.
  • FIG. 12 is a diagram showing a display example when the locus of the tip 11 for two doctors is displayed on the display screen 6a of the monitor 6 for the colon model.
  • Two windows 33a and 33b are displayed on the display screen 6a.
  • the window 33a displays an image showing the locus of the tip 11 of the doctor A
  • the window 33b displays an image showing the locus of the tip 11 of the doctor B.
  • Doctor A is a veteran endoscope doctor
  • Doctor B is a mid-career doctor of endoscopy.
  • the locus of the tip 11 of the mid-career doctor B displayed in the window 33b is near the anus (AA), in the descending colon (DC), and ascending as compared with the locus of the tip 11 of the veteran doctor A displayed in the window 33a. It indicates that there is a lot of movement in the colon (AC) and the insertion part 2b cannot be smoothly inserted or removed.
  • the locus information of the tip portion 11 can be used to compare the insertion or removal operations of the insertion portion 2b.
  • Calculation of positions such as feature points There are various methods for calculating the positions of the feature points and the like in S4. Some methods will be described below. 1. 1. When calculating the positions of feature points on a plurality of consecutive images using methods such as SLAM and SfM Using the position information of the image sensor 15 (here, the position of the tip 11) and the posture of the image sensor 15 that images the subject. Then, a method of optimizing the bundle adjustment for calculating the position of each feature point in the three-dimensional space will be described.
  • Bundle adjustment is an error adjustment method that optimizes internal parameters, external parameters, and world coordinate point clouds from an image using the nonlinear least squares method. For example, using each estimated parameter, the world coordinate points of a plurality of extracted feature points are fluoroscopically projected to the world coordinate points, and each parameter and each world coordinate point cloud are minimized so that the reprojection error is minimized. Is required.
  • the external parameters for the tip 11 are calculated by solving the 5-point and 8-point algorithms.
  • the position of the feature point is calculated according to the position of the tip portion 11 and the triangulation method.
  • the error E between the coordinates of the 3D point projected on the image plane and the feature point due to the reprojection error is expressed by the following equation (1).
  • L is the number of feature points on the K image
  • Psj is the coordinate position of the 3D point Pi estimated by triangulation and the parameters of the tip 11 on the image plane
  • Pi is. It is the coordinate position of the corresponding feature point on the image.
  • the position coordinates of the tip portion 11 are calculated by using the LM (Levenberg-Marquartdt) method so as to minimize the function of the error E in the equation (1).
  • the position of the feature point of S4 described above in the three-dimensional space is calculated based on the coordinate information of the feature point extracted on the image and the detected position and posture information of the tip portion 11.
  • the position and posture information of the tip portion 11 is detected by the position / posture detection unit 25 and is substantially accurate. Therefore, the information on the position and orientation of the tip portion 11 is not included in the estimation target of the external parameter in the bundle adjustment. Therefore, not only the estimation accuracy of the position of each feature point in the three-dimensional space by the bundle adjustment is high, but also the calculation time of the position of the plurality of extracted feature points is shortened.
  • FIG. 13 is a flowchart of a method of calculating the position of each feature point in the three-dimensional space by bundle adjustment.
  • the processor 21 sets the time t to t0 and the count value n of the software counter to 0 when the anal position AP shown in FIG. 5 is set as the initial position (S11).
  • the processor 21 acquires the endoscopic image (that is, the lumen image) at time t0 and the position and orientation information of the tip portion 11 (S12).
  • the endoscopic image is acquired from the image processing device 3.
  • Information on the position and posture of the tip portion 11 is acquired from the position / posture detection unit 25.
  • the processor 21 determines the position and posture of the tip portion 11 at the initial position, that is, the position AP of the anus (S13). For example, the position AP of the anus is determined so that the origin (x, y, z) is (0,0,0) and the posture (vx, vy, vz) is (0,1,0). S11 and S13 correspond to S1 in FIG.
  • the processor 21 acquires the endoscopic image at the time (t0 + n ⁇ t) and the position and orientation information of the tip portion 11 (S14). S12 and S14 correspond to S2 in FIG.
  • the information on the position and posture of the tip portion 11 may be modified. For example, using a Kalman filter, the path that the tip 11 has passed in the past is corrected, and the position of the tip 11 in the past is corrected based on the corrected path.
  • the processor 21 extracts a plurality of feature points in each endoscopic image, and obtains the position and orientation of the tip portion 11 at k points, that is, the three-dimensional arrangement of the tip portion 11 as known.
  • the positions of m feature points commonly included in the endoscopic image are calculated by the bundle adjustment described above (S15). Therefore, the extraction process of a plurality of feature points in each endoscopic image in S15 constitutes a feature point extraction unit that extracts a plurality of feature points in each captured image.
  • feature points that are commonly projected on the captured images at a plurality of time points are extracted.
  • the calculation process of the position of each feature point in the three-dimensional space in S15 is performed from the position in the captured image of the extracted plurality of feature points and the three-dimensional arrangement of the insertion portion 2b, in the three-dimensional space of the feature point. It constitutes a three-dimensional position calculation unit that calculates a position. More specifically, the feature point 3 is based on the three-dimensional arrangement information of the insertion portion 2b at a plurality of time points and the position of the feature point on the captured image that is commonly displayed in the captured images at the plurality of time points. The position in the dimensional space is calculated. Then, the position of each feature point in the three-dimensional space is determined by bundle adjustment.
  • FIG. 14 is a schematic diagram for explaining the relationship between the feature points on the plurality of endoscopic images acquired continuously and the position and posture of the tip portion 11.
  • the white triangle Pw indicates the actual position and orientation of the tip 11
  • the black triangle Pb indicates the estimated position and orientation of the tip 11.
  • the tip 11 indicates that it has actually moved along the solid line.
  • the estimated tip 11 is moving along the dotted line. With the passage of time, the position of the tip portion 11 has moved, and the posture of the tip portion 11 has changed.
  • the white quadrangle pw indicates the actual position of the feature point
  • the black quadrangle pb indicates the estimated or calculated position of the feature point.
  • a feature point is, for example, a point in an endoscopic image in which the shape and color are characteristic and can be easily discriminated or tracked.
  • the three-dimensional lumen structure of the large intestine obtain the coordinates of a plurality of specific points (characteristic points in this case) on the inner wall of the intestinal tract of the large intestine, and use a set of the obtained coordinates or connect the coordinates. As a result, a three-dimensional model is generated. That is, the three-dimensional structure of the lumen is determined from the calculated position of each feature point in the three-dimensional space.
  • the positions of a certain number of feature points or more on the inner wall of the lumen can be calculated using only the information of the endoscopic image.
  • techniques such as SLAM and SfM can be used.
  • the coordinates of a plurality of feature points on the inner wall of the intestinal tract are unknown, and the tip position and posture of the endoscope 2 for each elapsed time are also unknown. Estimating the positions of the above multiple feature points requires a huge amount of calculation, and the estimation accuracy is low.
  • the information on the position and orientation of the image sensor 11 at each time point includes information for 6 axes
  • the information on the position and posture of the image sensor 11 at k time points includes 6k pieces of information. Since the position of each feature point includes information for three axes, the information on the position of m feature points includes 3 m of information. Therefore, (6k + 3m) parameters are calculated by the bundle adjustment optimization operation.
  • the magnetic sensor 16 since the magnetic sensor 16 obtains information on the position and orientation of the tip portion 11 with the passage of time and is known, the number of parameters calculated in the bundle adjustment is reduced for optimization. The amount of arithmetic processing can be reduced and the speed can be increased. Further, since the positions of the feature points can be calculated by triangulation, the three-dimensional model structure can be calculated even if a continuous endoscopic image cannot be obtained.
  • the optimization calculation for (6k + 3m) parameters is conventionally performed, but the position of the tip portion 11 Since the information on the posture and the posture is known, the optimization calculation only calculates 3 m of parameters, so that the processing amount of the optimization calculation of the bundle adjustment can be reduced and speeded up.
  • the tip end 11 of the insertion portion 2b of the endoscope 2 is pressed against the inner wall of the lumen, is immersed in dirty washing water, or the endoscope image is blurred, so that appropriate continuous endoscopy is performed. Even if a mirror image cannot be obtained, information on the position and orientation of the tip portion 11 can be obtained. Therefore, even if a continuous endoscopic image cannot be obtained due to the tip portion 11 being pressed against the inner wall of the lumen, the possibility of calculating 3 m of parameters increases. As a result, the robustness of the calculation of the luminal structure is enhanced.
  • the processor 21 updates the lumen structure information by adding the newly calculated position information of the feature points to the created lumen structure information (S16).
  • S16 corresponds to S5 in FIG.
  • the processor 21 corrects the position information of the feature points calculated in the past (S17). Of the 3 m feature points newly calculated, the position information of the feature points calculated in the past was calculated in the past by using the newly calculated position information, for example, by averaging. Correct the location information.
  • the processor 21 outputs the image data of the lumen structure to the monitor 6 so as to display the image of the lumen structure in the lumen structure display area 32 based on the updated lumen structure information (S18).
  • S18 corresponds to S6 in FIG.
  • the processor 21 increments n by 1 (S19) and determines whether a command to end the inspection has been input (S20).
  • the command to end the examination for example, when the doctor inputs a predetermined command to the input device 27a after the insertion portion 2b is removed from the large intestine (S20: YES), the execution of the lumen structure calculation program LSP ends.
  • the process shifts to S14.
  • the processor 21 acquires the endoscope image after the period ⁇ t from the last acquisition time of the endoscope image (S14), and executes the processing after S14.
  • the 6-axis magnetic sensor 16 detects the position and orientation information of the tip portion 11, and the three-dimensional position of each feature point is calculated by optimizing the bundle adjustment.
  • Each feature point by optimizing bundle adjustment, with some of all the information in You may try to calculate the three-dimensional position of.
  • the three-dimensional position of each feature point is calculated assuming that at least one of the information on the position and posture of the tip portion 11 is known, so that the calculation accuracy of the three-dimensional position of each feature point is improved and the optimization calculation is performed.
  • the total time of is also shortened. 2.
  • the position of a feature point for example, the center point of an image
  • the position of each feature point is calculated from two images with different viewpoints using the triangulation method. The method of doing this will be described.
  • FIG. 15 is a schematic diagram for explaining the relationship between the feature points on the plurality of endoscopic images and the position and posture of the tip portion 11. In FIG.
  • the white triangle P indicates the actual position and orientation of the tip portion 11, that is, the three-dimensional arrangement.
  • the tip 11 indicates that it has actually moved along the solid line.
  • the white square p indicates the actual position of the feature point.
  • Each feature point is, for example, a point in an endoscopic image in which the shape and color are characteristic and can be easily discriminated or tracked.
  • the position of each feature point is calculated from the information on the position and posture of the tip portion 11 and the two endoscopic images by using triangulation. That is, triangulation is performed from the information on the positions and orientations of the image sensors 15 at a plurality of time points and the positions of the feature points commonly projected on the image images acquired by the image sensors 15 at a plurality of time points on the captured image. Based on this, the position of each feature point in the three-dimensional space is calculated, and the three-dimensional structure of the lumen is determined.
  • the triangulation described above is performed based on two endoscopic images obtained at two times, but it is performed based on two endoscopic images obtained at the same time. May be good.
  • FIG. 16 is a perspective view of the tip end portion of the tip end portion of the insertion portion having the stereo camera.
  • Two observation windows 11a and 11b and two illumination windows 11c are arranged on the tip surface of the tip portion 11.
  • An image pickup optical system and an image pickup element are arranged behind the observation windows 11a and 11b.
  • the image pickup optical system and the image pickup element form an image pickup unit 11d, and the two image pickup sections 11d form a stereo camera.
  • FIG. 17 is a plan view of the tip end surface of the tip end portion of the insertion portion having a plurality of illumination windows.
  • FIG. 17 is a view of the tip surface 11a1 of the tip portion 11 as viewed from the tip side of the insertion portion 2b.
  • the tip surface 11a1 of the tip portion 11 is provided with an observation window 41, three illumination windows 42, a forceps port 43, a cleaning nozzle 44, and a secondary water supply port 45.
  • An imaging unit 11d is provided behind the observation window 41.
  • the three illumination windows 42 are arranged around the observation window 41.
  • a tip surface of a light guide (not shown) is arranged behind each illumination window 42.
  • the forceps opening 43 is an opening in which the treatment tool passed through the treatment tool insertion channel provided in the insertion portion 2b protrudes.
  • the cleaning nozzle 44 discharges water for cleaning the surface of the observation window 41.
  • the sub water supply port 45 is an opening for discharging water for sub water supply.
  • the three illumination lights emitted from the three illumination windows 42 can be switched and selectively emitted by controlling the drive of a plurality of light emitting diodes for illumination provided in the light source device 4. ..
  • the state of the shadow portion in the image on the surface of the subject changes by switching the illumination light. Therefore, the distance to the shadow portion on the surface of the subject can be calculated based on the amount of change. That is, the three-dimensional structure of the lumen can be determined based on the illuminance difference stereo from the image of the shadow region in the captured image obtained by illuminating with a plurality of selectively operated illumination units. 4.
  • calculating the lumen structure using a distance sensor A method of calculating the position of each point on the inner wall of the lumen using the distance sensor provided at the tip portion 11 will be described.
  • FIG. 18 is a perspective view of the tip end portion of the tip end portion of the insertion portion having the distance sensor.
  • An observation window 41, two illumination windows 42, a forceps opening 43, and a distance sensor 51 are arranged on the tip surface 11a1 of the tip portion 11.
  • the distance sensor 51 is a TOF (Time Of Flight) sensor, and here, it is a sensor that detects a distance image by the TOF.
  • the distance sensor 51 measures the distance by measuring the flight time of light.
  • the TOF function is embedded in each pixel of the image sensor. Therefore, the distance sensor 51 obtains the distance information for each pixel. That is, the distance sensor 51 is provided at the tip portion 11 of the insertion portion 2b and detects the distance from the tip portion 11 to the inner wall of the lumen.
  • the distance sensor may be a sensor of another type such as LiDAR (Light Detection and Range / Laser Imaging Detection and Range).
  • FIG. 19 is a flowchart of a method of calculating the three-dimensional position of the inner wall of the lumen using the distance sensor.
  • the same processing as in FIG. 13 is assigned the same step number, the description thereof is omitted, and only different processing will be described.
  • the position of each feature point is the distance information of each pixel of the distance sensor 51 and the position and orientation of the tip portion 11.
  • the three-dimensional position of each point on the inner wall of the colon can be calculated from the above information.
  • the luminal structure is composed of a set of three-dimensional position information of each point on the inner wall. That is, in FIG. 13, in S21, the processor 21 measures the distance from the distance information output from the distance sensor 51 and the position and posture information of the tip portion 11 obtained in S14 (feature points). Calculate the three-dimensional coordinates of. 5.
  • the tip 11 may be provided with an illumination unit that emits a predetermined pattern light, and the distance may be measured from the tip 11 to the inner wall by projecting the pattern light.
  • the information on the position and posture (that is, the arrangement) of the tip portion 11 of the insertion portion 2b and the image information of the endoscopic image or the distance information of the ranging sensor are used. , Structural information of the inner wall of the large intestine can be obtained.
  • the tip portion since the information on the position and posture of the tip portion 11 can be obtained, the tip portion may be too close to the tube wall and an endoscopic image cannot be obtained, or the distance information of the distance sensor 51 can be obtained. Even if it is not possible, the structure of the luminal portion from which the endoscopic image or the like cannot be obtained cannot be calculated, but the structure of the luminal portion from which the endoscopic image or the like is obtained can be calculated.
  • FIG. 20 is a diagram for explaining an example of a partially calculated luminal structure.
  • the portion indicated by the ellipse of the alternate long and short dash line indicates a part of the large intestine from which the endoscopic image was obtained or the distance information of the distance sensor 51 was obtained.
  • the endoscopic image could not be obtained or the distance information of the distance sensor 51 could not be obtained, but the structural information of the partial region shown by the solid line is calculated. That is, if there is no overlap or determination of the feature points with other sets in each set, a plurality of luminal structures having no connection are arranged at each position based on the position information of each luminal structure. NS.
  • the position of each feature point can be calculated from the plurality of endoscopic images.
  • the three-dimensional model structure of the lumen is partially formed. It can be calculated.
  • the magnetic sensor 16 is used as a position sensor for detecting the position and orientation of the tip portion 11 of the insertion portion 2b, but the position and orientation of the tip portion 11 can be determined by another means. It may be detected.
  • FIG. 21 is a diagram for explaining a method of detecting the position and posture of the tip portion 11 using an endoscope having a shape sensor and sensors for detecting the insertion amount and the twist amount.
  • the shape sensor 61 is arranged inside the insertion portion 2b from the base end to the tip end.
  • the shape sensor 61 is, for example, a fiber sensor that is a bending sensor that detects a bending amount from the curvature of a specific location by using an optical fiber.
  • the insertion amount / twist amount sensor 62 is arranged near the anus and has a cylindrical shape having a hole through which the insertion portion 2b can be inserted.
  • An encoder for detecting the axial insertion amount of the insertion portion 2b and an encoder for detecting the rotation amount of the insertion portion 2b around the axis are arranged on the inner peripheral surface of the hole of the insertion amount / twist amount sensor 62. Has been done. Therefore, using the shape sensor 61 and the insertion amount / twist amount sensor 62, the position and posture of the tip portion 11 are estimated based on the insertion amount and the twist amount of the insertion portion 2b with reference to the position of the anus. Can be done.
  • the shape sensor 61 does not use an optical fiber, but is inserted by providing one magnetic sensor 16 at the tip portion 11 and arranging a plurality of magnetic sensors 16 in the insertion portion 2b at predetermined intervals. The shape of the portion 2b may be detected.
  • FIG. 22 is a perspective view of an endoscope in which a plurality of magnetic sensors 16 are arranged in the insertion portion 2b. The shape of the insertion portion 2b can be calculated from the position information of the plurality of magnetic sensors 16 as shown in FIG. 22.
  • the shape sensor 61 described above may be arranged in the insertion portion 2b of the endoscope 2. If the shape sensor 61 is used, the overall shape of the insertion portion 2b can also be grasped.
  • the luminal structure is calculated while the doctor looks at the endoscopic image, but if there is a hidden part such as the back side of the fold, the luminal structure of that region is not calculated.
  • the hidden part is an area that is not shown in the endoscopic image. Since the luminal structure is not generated in the region not included in the endoscopic image, the presence of the hidden portion may be detected from the endoscopic image or the like and notified to the doctor.
  • FIG. 23 is a diagram showing a display example of the monitor 6 when there is a hidden portion.
  • the endoscopic image display area 31 of the display screen 6a of the monitor 6 an endoscopic image of the large intestine having a shadow on the back side of a part of the inner wall is displayed.
  • the brightness of the dark shadow portion SA which is not exposed to the illumination light, is gradually lowered as compared with the other portions. Therefore, when the brightness difference between adjacent pixels or adjacent pixel regions is equal to or greater than a predetermined brightness value, it can be determined that there is a hidden portion.
  • the user can be notified and the hidden portion can be observed.
  • the hidden part also includes a dent such as a diverticulum.
  • the hidden portion is detected by the presence / absence of a shadow region that is not exposed to the illumination light, but the presence / absence of a similar hidden portion is detected by using the distance image information of the distance sensor 51 or the like described above. You may try to do it.
  • the distance difference between adjacent pixels or adjacent pixel regions is equal to or greater than a predetermined distance value, it can be determined that there is a hidden portion.
  • FIG. 24 is a flowchart showing an example of the flow of the notification processing of the unobserved area based on the brightness value of the image.
  • the process of FIG. 24 is executed in parallel with the process of FIG. 4 when the endoscopic image from a new viewpoint is acquired in S2 of FIG.
  • the processor 21 obtains the brightness information of the endoscopic image from the new viewpoint acquired in S2 (S31). That is, the luminance information of each pixel in the image is acquired.
  • the processor 21 determines, that is, confirms whether or not a) the difference between the brightness values of two adjacent pixels is equal to or greater than the predetermined value, or b) there is a dark streak portion in a predetermined pixel region in the image. (S32).
  • the processor 21 determines whether any of a) and b) holds (S33). When either a) or b) holds (S33: YES), the processor 21 displays a predetermined message on the monitor 6 as there may be a hidden portion in the field of view (S34).
  • the predetermined message is, for example, a message such as the pop-up window 33 of FIG.
  • S33: NO no processing is performed.
  • the process of S34 constitutes a notification unit that gives a predetermined notification when the difference between the two adjacent pixels or the two pixel regions in the captured image is equal to or greater than a predetermined value.
  • FIG. 25 is a flowchart showing an example of the flow of the notification processing of the unobserved area by the distance image of the distance sensor 51.
  • the process of FIG. 25 is executed in parallel with the process of FIG. 4 when the endoscopic image from a new viewpoint is acquired in S2 of FIG.
  • the processor 21 obtains the distance image information of the distance sensor 51 from the new viewpoint acquired in S2 (S41). That is, the distance information of each pixel in the image is acquired.
  • the processor 21 determines whether or not c) the difference between the distances between two adjacent pixels is equal to or greater than a predetermined value, or d) there is a portion in the predetermined pixel region in the image where the change in distance is not continuous. Confirm (S42).
  • the processor 21 determines whether any of c) and d) holds (S43). When either c) or d) holds (S43: YES), the processor 21 displays a predetermined message on the monitor 6 as there may be a hidden portion in the field of view (44).
  • the predetermined message is, for example, a message such as the pop-up window 34 of FIG.
  • S43: NO no processing is performed.
  • the process of S43 constitutes a notification unit that gives a predetermined notification when the difference between the two adjacent pixels in the distance image or the distance value between the two pixel regions is equal to or greater than a predetermined value.
  • an endoscopic system and a lumen structure calculation capable of calculating a three-dimensional model structure of a lumen from the position of each feature point even if an image defect occurs due to the movement of an organ or the like.
  • a method for creating an apparatus and luminal structure information can be provided.
  • the present invention is not limited to the above-described embodiment, and various modifications, modifications, and the like can be made without changing the gist of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡システム1は、被写体となる管腔に挿入される挿入部2bと、挿入部2bの先端部11に設けられ、被写体を撮像して撮像画像を取得する撮像素子15と、撮像素子15の3次元配置を検出するための位置姿勢検出部25と、撮像画像と3次元配置に基づいて、管腔の3次元構造を算出するプロセッサ21と、を具備する。

Description

内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法
 本発明は、内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法に関する。
 内視鏡が医療分野及び工業分野で広く利用されている。例えば、医療分野では、医者は、内視鏡の挿入部を被検体内に挿入し、表示装置に表示される内視鏡画像を見て被検体内を観察することにより、内視鏡検査などを行うことができる。
 内視鏡検査のとき、未観察箇所があると確実な内視鏡検査が保証されない。そこで、大腸内視鏡の未観察箇所の把握などを目的として、例えば、モハンマド・アリ・アルミン(Mohammad Ali Armin)、他5名著、「大腸内視鏡映像からの大腸内表面の自動化可視マップ(Automated visibility map of the internal colon surface from colonoscopy video)」、(International Journal of Computer Assisted Radiology and Surgery、Vol.11、No.9、P.1599-1610、4 Aug,2016(インターナショナル・ジャーナル・オブ・コンピュータ・アシステド・ラジオロジ・アンド・サージェリ、11巻、9号、1599-1610、2016年8月4日)には、内視鏡により撮像して得られた画像に基づいて腸管の3次元モデル構造を演算による推定で構築する技術が提案されている。
 その提案では、3次元モデル構造は、内視鏡画像のみから算出される。3次元モデル構造を算出するためには、内視鏡画像における腸管の内壁上の複数の特徴点の座標を求め、複数の特徴点を繋ぐように3次元モデル構造が作成される。
 しかし、大腸などの臓器は可動性を有するため、3次元モデル構造を作成中に、臓器の動きなどによる画像不良が生じると、特徴点の位置が不明になり、複数点を繋ぐ3次元モデル構造は算出できない。
 本発明は、上述した問題に鑑みてなされたものであって、臓器の動きなどによる画像不良が生じても各特徴点の位置から管腔の3次元モデル構造を算出可能な内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法を提供することを目的とする。
 本発明の一態様の内視鏡システムは、被写体となる管腔に挿入される挿入部と、前記挿入部に設けられ、前記被写体の撮像画像を取得する撮像部と、前記撮像部の位置及び向きの少なくとも一部の情報を含む3次元配置を検出するための検出装置と、前記撮像画像と前記3次元配置に基づいて、前記管腔の3次元構造を算出する管腔構造算出部と、を具備する。
 本発明の一態様の管腔構造算出装置は、被写体となる管腔に挿入される挿入部に設けられた撮像部によって取得された撮像画像と、検出装置によって検出された前記撮像部の位置及び向きの少なくとも一部の情報を含む3次元配置と、を取得する入力部と、前記撮像画像と前記3次元配置に基づいて、前記管腔の3次元構造を算出する管腔構造算出部と、を具備する。
 本発明の一態様の内視鏡システムは、被写体となる管腔に挿入される挿入部と、前記挿入部の先端部の3次元配置を検出するための検出装置と、前記先端部に設けられ、前記先端部から前記管腔の内壁までの距離を検出する距離センサと、前記距離と前記3次元配置に基づいて、前記管腔の3次元構造を算出する管腔構造算出部と、を具備する。
 本発明の一態様の管腔構造算出装置は、被写体となる管腔に挿入される挿入部に設けられた撮像部の位置及び向きの少なくとも一部の情報を含む3次元配置を検出するための検出装置によって検出された前記3次元配置と、前記先端部に設けられ、前記先端部から前記管腔の内壁までの距離を検出する距離センサにより検出された前記距離と、を取得する入力部と、前記3次元配置と前記距離とに基づいて、前記管腔の3次元構造を算出する管腔構造算出部と、を具備する。
 本発明の一態様の管腔構造情報の作成方法は、被写体となる管腔に挿入された挿入部によって取得された前記被写体の撮像画像を取得することと、前記挿入部の位置及び向きの少なくとも一つの情報を含む3次元配置を検出することと、前記撮像画像と前記3次元配置に基づいて、前記管腔の3次元構造を算出することと、を具備する。
本発明の実施形態に係わる内視鏡システムの構成図である。 本発明の実施形態に係わる内視鏡の斜視図である。 本発明の実施形態に係わる内視鏡システムの構成を示すブロック図である。 本発明の実施形態に係わる、管腔構造算出プログラムの管腔構造の算出処理の流れの例を示すフローチャートである。 本発明の実施形態に係わる、挿入部の先端部の初期値を設定するときの患者の状態を説明するための図である。 本発明の実施形態に係わる、大腸内の模式的な部分モデルの例を示す図である。 本発明の実施形態に係わる、大腸内の模式的な部分モデルの例を示す図である。 本発明の実施形態に係わる、2つの部分モデルの位置ずれを補正する方法を説明するための図である。 本発明の実施形態に係わる、モニタに表示される画像の例を示す図である。 本発明の実施形態に係わる、構造情報表示領域に表示される構造情報の画像の例を示す図である。 本発明の実施形態に係わる、モニタに表示される先端部の軌跡を示した画像の例を示す図である。 本発明の実施形態に係わる、二人の医師についての挿入部の先端部の軌跡をモニタの表示画面上に表示させたときの表示例を示す図である。 本発明の実施形態に係わる、各特徴点の3次元空間内の位置算出をバンドル調整により行う方法のフローチャートである。 本発明の実施形態に係わる、連続して取得された複数の内視鏡画像上の特徴点と、先端部の位置と姿勢の関係を説明するための模式図である。 本発明の実施形態に係わる、複数の内視鏡画像上の特徴点と、先端部の位置と姿勢の関係を説明するための模式図である。 本発明の実施形態に係わる、ステレオカメラを有する挿入部の先端部の先端部分の斜視図である。 本発明の実施形態に係わる、複数の照明窓を有する挿入部の先端部の先端面の平面図である。 本発明の実施形態に係わる、距離センサを有する挿入部の先端部の先端部分の斜視図である。 本発明の実施形態に係わる、距離センサを用いた管腔の内壁の3次元位置の算出を行う方法のフローチャートである。 本発明の実施形態に係わる、部分的に算出された管腔構造の例を説明するための図である。 本発明の実施形態に係わる、形状センサを有する内視鏡と、挿入量及び捩り量を検出するセンサを用いた先端部の位置と姿勢を検出する方法を説明するための図である。 本発明の実施形態に係わる、複数の磁気センサが挿入部内に配設された内視鏡の斜視図である。 本発明の実施形態に係わる、隠れ部分があるときのモニタの表示例を示す図である。 本発明の実施形態に係わる、画像の輝度値による未観察領域の告知処理の流れの例を示すフローチャートである。 本発明の実施形態に係わる、距離センサの距離画像による未観察領域の告知処理の流れの例を示すフローチャートである。
 以下、図面を参照して本発明の実施形態を説明する。
(構成)
 図1は、本実施形態に係わる内視鏡システムの構成図である。図2は、内視鏡の斜視図である。図3は、内視鏡システム1の構成を示すブロック図である。内視鏡システム1は、内視鏡2と、画像処理装置3と、光源装置4と、管腔構造検出装置5と、表示装置であるモニタ6と、磁場発生装置7とを含んで構成されている。内視鏡システム1は、白色の照明光を用いた通常光観察が可能である。医者は、内視鏡システム1を用いて、ベッド8上に仰向けで横になっている患者Paの大腸内の内視鏡検査を行うことができる。また、管腔構造検出装置5は、患者Paの大腸の管腔構造を算出する管腔構造算出装置である。
 なお、ここでは、磁場発生装置7は、独立した装置であるが、管腔構造検出装置5に含まれていてもよい。
 内視鏡2は、操作部2aと、可撓性を有する挿入部2bと、信号線などを含むユニバーサルケーブル2cとを有する。内視鏡2は、管状の挿入部2bを体腔内に挿入する管状挿入装置である。ユニバーサルケーブル2cの先端にはコネクタが設けられ、内視鏡2は、そのコネクタにより光源装置4と画像処理装置3に着脱可能に接続される。ここでは、内視鏡2は、大腸内へ挿入可能な内視鏡である。さらに、図示しないが、ユニバーサルケーブル2c内には、ライトガイドが挿通されており、内視鏡2は、光源装置4からの照明光を、ライトガイドを通して挿入部2bの先端から出射するように構成されている。
 図2に示すように、挿入部2bは、挿入部2bの先端から基端に向かって、先端部11と、湾曲可能な湾曲部12と、可撓管部13とを有している。挿入部2bは、被写体となる患者Paの管腔に挿入される。先端部11の基端部は湾曲部12の先端に接続され、湾曲部12の基端部は可撓管部13の先端に接続されている。先端部11は、挿入部2bの先端部すなわち内視鏡2の先端部であり、硬い先端硬質部である。
 湾曲部12は、操作部2aに設けられた湾曲操作部材14(左右湾曲操作ノブ14a及び上下湾曲操作ノブ14b)に対する操作に応じて、所望の方向に湾曲可能である。湾曲部12を湾曲させ、先端部11の位置と向きを変え、被検体内の観察部位を観察視野内に捉えると、照明光は観察部位に照射される。湾曲部12は、挿入部2bの長手軸方向に沿って連結された複数の湾曲駒(図示せず)を有している。よって、医者は、挿入部2bを大腸内に押し込みながら、あるいは大腸内から引き抜きながら、湾曲部12を様々な方向に湾曲させることによって、患者Paの大腸内をくまなく観察することができる。
 左右湾曲操作ノブ14a及び上下湾曲操作ノブ14bは、湾曲部12を湾曲するために、挿入部2b内に挿通され操作ワイヤを牽引及び弛緩させる。湾曲操作部材14は、さらに、湾曲した湾曲部12の位置を固定する固定ノブ14cを有している。なお、操作部2aには、湾曲操作部材14の他にも、レリーズボタン、送気送水ボタン等の各種操作ボタンも設けられている。
 可撓管部13は、可撓性を有しており、外力に応じて曲がる。可撓管部13は、操作部2aから延出されている管状部材である。
 また、図3に示すように、挿入部2bの先端部11には、撮像装置である撮像素子15が設けられており、光源装置4の照明光により照明された大腸内の観察部位は、撮像素子15により撮像される。すなわち、撮像素子15は、挿入部2bの先端部11に設けられ、複数の時点において被検体内を撮像して複数の時点の撮像画像を取得する撮像部を構成する。撮像素子15により得られた撮像信号は、ユニバーサルケーブル2c内の信号線を経由して画像処理装置3に供給される。
 画像処理装置3は、受信した撮像視号に対して所定の画像処理を行い、内視鏡画像を生成するビデオプロセッサである。生成された内視鏡画像の映像信号は、画像処理装置3からモニタ6へ出力され、ライブの内視鏡画像が、モニタ6上に表示される。検査を行う医者は、挿入部2bの先端部11を患者Paの肛門から挿入し、患者Paの大腸内を観察することができる。
 さらに、挿入部2bの先端部11には、磁気センサ16が配置されている。具体的には、磁気センサ16は、先端部11の撮像素子15の近傍に配置され、撮像素子15の視点の位置と姿勢を検出するための検出装置である。磁気センサ16は、2つのコイル16a、16bを有する。例えば、円筒状の2つのコイル16a、16bの2つの中心軸は、互いに直交している。よって、磁気センサ16は、6軸のセンサであり、先端部11の位置座標と向き(すなわちオイラー角)を検出する。磁気センサ16の信号線2eが、内視鏡2から延出し、管腔構造検出装置5に接続されている。
 すなわち、撮像素子15の視点の位置と姿勢を検出するための検出装置として、磁気センサ16は、挿入部2bの先端部11の内部に配置可能であり、挿入部2を有する内視鏡2のサイズ、性能には影響を与えない。
 磁場発生装置7が所定の磁場を発生し、磁気センサ16は、磁場発生装置7が発生する磁場を検出する。磁場発生装置7は、信号線2eにより管腔構造検出装置5と接続されている。磁場の検出信号は、信号線2eを経由して内視鏡2から管腔構造検出装置5へ供給される。なお、磁気センサ16に代えて先端部11に磁場発生素子を設け、磁場発生装置7に代えて、患者Paの外部に磁気センサを設けるようにして、先端部11の位置及び姿勢を検出するようにしてもよい。ここでは、磁気センサ16により、先端部11の位置及び姿勢、言い換えれば撮像素子15により取得される内視鏡画像の視点の位置及び向きがリアルタイムで検出される。
 医者が、操作部2aに設けられたレリーズボタンを押すと、レリーズボタン操作信号が画像処理装置3へ入力され、レリーズボタンが押されたときの内視鏡画像は、図示しないレコーダに記録される。
 図3に示すように、管腔構造検出装置5は、プロセッサ21と、記憶装置22と、表示インターフュース(以下、表示I/Fと略す)23と、画像取込部24と、位置姿勢検出部25と、駆動回路26と、入力インターフュース(以下、入力I/Fと略す)27を含んでいる。プロセッサ21と、記憶装置22と、表示I/F23と、画像取込部24と、位置姿勢検出部25と、駆動回路26と、入力I/F27は、バス28により互いに接続されている。
 プロセッサ21は、中央処理装置(以下、CPUという)21aとメモリ21bを有し、管腔構造検出装置5内の各部の処理を制御する制御部である。メモリ21bは、ROM、RAMなどを含む記憶部である。ROMには、CPU21aにより実行される各種処理プログラム及び各種データが記憶されている。CPU21aは、ROM及び記憶装置22に格納された各種プログラムを読み出して実行することができる。
 記憶装置22には、後述する管腔構造算出プログラムLSPが格納されている。管腔構造算出プログラムLSPは、先端部11の位置及び姿勢の情報と、内視鏡画像とから管腔構造を算出するソフトウエアプログラムである。CPU21aが管腔構造算出プログラムLSPを読み出して実行することにより、プロセッサ21は、撮像素子15により得られた撮像画像と磁気センサ16に検出された撮像部の3次元配置(すなわち位置と姿勢)とに基づいて、管腔の3次元構造を算出する管腔構造算出部を構成する。
 記憶装置22には、算出された管腔構造の情報なども記憶される。記憶装置22に記憶された管腔構造情報は、表示I/F23を経由して出力され、モニタ6の画面上に表示される。ここでは、管腔は、大腸であり、大腸の管腔構造画像がモニタ6に表示される。
 モニタ6は、PinP(Picture In Picture)機能を有し、CPU21により生成された大腸の管腔構造画像と共に、内視鏡2の撮像素子15により撮像して得られたライブの内視鏡画像を表示することができる。
 画像取込部24は、画像処理装置3において得られた内視鏡画像を、一定の周期で取り込む処理部である。例えば、内視鏡2から、フレームレートと同じ、1秒間に30枚の内視鏡画像を、画像処理装置3から取得する。なお、ここでは、画像取込部24は、1秒間に30枚の内視鏡画像を取り込んでいるが、フレームレートとは異なる、例えば1秒間に3枚等のより長い周期で内視鏡画像を取得するようにしてもよい。
 位置姿勢検出部25は、磁場発生装置7を駆動する駆動回路26を制御して、磁場発生装置7に所定の磁場を発生させる。位置姿勢検出部25は、その磁場を磁気センサ16により検出し、その検出された磁場の検出信号から、撮像素子15の位置座標(x、y、z)と向き(すなわちオイラー角(ψ、θ、φ))のデータ、すなわち位置と姿勢の情報、をリアルタイムで生成する。すなわち、位置姿勢検出部25は、磁気センサ16からの検出信号に基づいて、撮像素子15の位置と向きの少なくとも一部の情報を含む3次元配置を検出する検出装置である。より具体的には、位置姿勢検出部25は、時間経過に伴う3次元配置の変化の情報である3次元配置時間変化情報を検出する。よって、位置姿勢検出部25は、複数の時点の挿入部2bの3次元配置情報を取得する。
 管腔構造検出装置5には、マウス、キーボードなどの入力装置27aが接続されている。入力装置27aに対する操作に応じた操作信号は、入力I/F27を経由してプロセッサ21に入力される。
 また、光源装置4は、通常光観察モード用の通常光を出射可能な光源装置である。なお、内視鏡システム1が通常光観察モードの他に特殊光観察モードも有している場合は、光源装置4は、通常光観察モード用の通常光と、特殊光観察モード用の特殊光とを選択的に出射する。光源装置4は、画像処理装置3に設けられた観察モードを切り換えるための切換スイッチ(図示せず)の状態に応じて、通常光と特殊光のいずれかを照明光として出射する。
(管腔構造の算出)
 図4は、管腔構造算出プログラムLSPの管腔構造の算出処理の流れの例を示すフローチャートである。医者が入力装置27aの所定の操作ボタンを押下すると、管腔構造算出プログラムLSPが実行される。
 はじめに、医者は、挿入部2bの先端部11を肛門の位置を配置した状態で、入力装置27aに対して所定の操作を行うと、プロセッサ21は、位置姿勢検出部25からの位置(座標)と姿勢のデータを、管腔構造を算出するときの先端部11の基準位置と基準姿勢として設定する(ステップ(以下、Sと略す)1)。図5は、先端部11の初期値を設定するときの患者Paの状態を説明するための図である。図5に示すように、医者は、先端部11を肛門に当てた状態で、3次元空間内の肛門の位置APにおける先端部11の基準位置と基準姿勢を初期値とする設定を行う。
 以下の処理で算出される管腔構造は、ここで設定された基準位置と基準姿勢に基づいて算出される。
 なお、基準位置と基準姿勢の設定後、医者は、先端部11を大腸の最奥部まで挿入する。挿入部2bの先端部11が大腸の最奥部にある状態から、空気を送気して大腸内を拡張しながら、医者は、挿入部2bを引きながら肛門に向かって移動させ、途中で挿入部2bの引き抜きを停止させたりしながら、湾曲部12を種々の方向に湾曲させて大腸の内壁を観察する。医者が大腸の内壁を観察しているときに、大腸の管腔構造が算出される。
 上述したように、画像取込部24は、画像処理装置3から30分の1秒毎に供給される内視鏡画像から所定の周期Δt毎の内視鏡画像を取得する(S2)。周期Δtは、例えば0.5秒である。CPU21は、内視鏡画像を取得したときの位置姿勢検出部25の出力する先端部11の位置と姿勢の情報を取得する(S3)。
 S2で取得した1枚の内視鏡画像とその前に取得済の1枚以上の内視鏡画像とにおける複数の特徴点等の3次元空間内の位置情報を算出する(S4)。算出された複数の特徴点等の位置情報の集合が、管腔構造の情報となる。後述するように、各特徴点の位置情報は、画像情報からSLAM(Simultaneous Localization and Mapping)、SfM(Structure from Motion)などの手法を用いて算出してもよいし、三角測量の原理を用いて算出してもよい。各特徴点の位置の算出方法については後述する。
 なお、最初の1枚の内視鏡画像が取得されたときは、その前の取得済の内視鏡画像はないので、所定枚数の内視鏡画像が取得されるまでは、S4の処理は実行されない。
 一群すなわち1セットの特徴点と撮像部の位置と姿勢から、各特徴点の3次元空間内の位置が算出され、1セットの特徴点等から管腔構造の一部が構築されるが、大腸は、伸び縮みするため、1)算出された2セットの特徴点同士が対応するか、2)算出された特徴点が、既に位置が算出された特徴点に対応する点であるか、等が判定される。例えば、1)の判定の場合、算出された1セットの特徴点の、他の1セットの特徴点に対する相対的な可動範囲は、x、y、zの各軸の方向における大腸腸管の伸縮率によって規定される。そのために、位置が算出された2セットの特徴点同士が所定の伸縮率により決定された所定の範囲内にないときは、算出された2セットの特徴点同士は、同じとは判定しない。即ち、算出された1つのセットの特徴点は既に位置が算出された他の1セットの特徴点とは同じとは判定されない。このことは、算出された2セットの一方の特徴点の一部は、既に位置が算出された2セットの他方の特徴点に含まれないということになる。
 また、算出された特徴点の空間的な可動範囲は、大腸腸管の固定部からの距離と大腸腸管の伸縮率によって規定される。ここで言う大腸腸管の固定部とは、肛門近辺部分、大腸の上行結腸及び下行結腸の部分のような、腸間膜が無く、後腹壁に固定され、移動性が少ない部分を指す。既に位置が算出された特徴点について、大腸腸管の固定部(上行結腸の上端部と下行結腸の上端部の少なくとも一方からの距離が分かれば、算出された特徴点が固定部からその距離に腸管の所定の伸縮率を掛けた距離の範囲内にないときは、算出された特徴点が、既に位置が算出された特徴点と同じとは判定しない。このことは、算出された2セットの一方の特徴点等が含まれる管腔の領域は、既に位置が算出された2セットの他方の特徴点等が含まれる管腔の領域とは異なる別の部分ということになる。
 なお、S状結腸の中間部分等は、腸管の両側の固定部からの距離を考慮して存在範囲の確認をすることができる。S状直腸を除く直腸と下行結腸が固定部であり、S状結腸の中間部分では、上部直腸とS状直腸の接続部からの距離とS状結腸と下行結腸の接続部であるSDジャンクションからの距離を、2つの拘束条件とすることができる。
 図6は、大腸内の模式的な部分モデルの例を示す図である。上述した1)の判定によれば、1セットの特徴点群により1つの3次元部分モデル(部分管腔構造)が生成されるので、図6に示すように、大腸腸管Cの上行結腸において、隣り合う2つの3次元部分モデルPM1,PM2,PM3間に位置ずれがあるが、複数の3次元部分モデルPM1,PM2,PM3を含む大腸の3次元モデルが、生成される。すなわち、管腔構造算出部としてのプロセッサ21は、3次元構造の一部である部分3次元構造を複数算出し、各々の部分3次元構造を作成しているときの3次元配置に基づき、複数の部分3次元構造の配置を決定することで、大腸腸管Cの3次元構造を算出する。
 図7は、大腸内の模式的な部分モデルの例を示す図である。2つの3次元部分モデル(部分管腔構造)の各特徴点が大腸腸管Cの1つの固定部FPの上端部FPUから所定の伸縮率を掛けた距離の範囲内にあれば、既に位置が算出された特徴点と同じと判定される。図7では、各部分モデルPM4、PM5の上端部FPUからの距離(図7において矢印で示す距離)が、所定の伸縮率を掛けた距離の範囲内にある。図7に示すように、2つの部分モデルPM4,PM5の各特徴点が大腸腸管の固定部FPから所定の伸縮率を掛けた距離の範囲内にあるため、別々のモデルとして生成され、かつ2つの部分モデルPM4,PM5は離れている。
 2つの部分モデルPM4,PM5が別々に生成されても、2つの部分モデルPM4,PM5の位置ずれを補正してもよい。図8は、2つの部分モデルPM4,PM5の位置ずれを補正する方法を説明するための図である。図7に示した、位置ずれのある2つの部分モデルPM4,PM5は、図8に示すように、位置ずれが補正される。
 そのために、プロセッサ21は、複数の3次元構造の間で類似する特徴点が抽出されたときに、類似する特徴点から固定部までの距離の違いを所定の基準値と比較することで、類似する特徴点が数の3次元構造に共通する特徴点であるか否かを判定する。
 そして、部分モデルPM4,PM5は、共通する特徴点に基づいて、固定部FPの上部FPUの横方向の位置が一致するように位置補正されて配置されている。部分モデルPM4とPM5の上端部FPUからの2つの距離(図8において矢印で示す水平方向の距離)は、それぞれ、図7における部分モデルPM4、PM5の横方向(水平方向)の2つの距離と一致する。
 以上のように、管腔である大腸腸管Cは、外部から固定された固定部と、外部から固定されていない可動部(横行結腸)とを有し、プロセッサ21は、可動部に対応する部分3次元構造と固定部との距離を算出し、部分3次元構造と固定部との距離に基づいて、部分3次元構造の配置を補正する。そして、プロセッサ21は、各特徴点の位置の情報を含んだ複数の部分3次元構造を算出し、複数の3次元構造に共通する特徴点の位置に基づき、部分3次元モデルの配置を補正する。
 従って、図8のように、2つのセットの特徴点の一部が一致すれば、隣り合う2つの部分モデルが位置補正されることによって、2つの隣り合う部分モデルを接続して、2つの部分モデルを1つのモデルとして統合することができる。
 なお、プロセッサ21は、3次元配置時間変化情報に基づき、挿入部2bの方向転換場所と滞留場所との少なくとも一方を判定することで、固定部と可動部の位置を推定することができる。
 大腸全体に所定の1つの伸縮率を設定してもよいが、肛門近辺部分、大腸の上行結腸及び下行結腸の部分の伸縮率と、肛門近辺部分、大腸の上行結腸及び下行結腸の部分以外の他の部分の伸縮率上限値は異なるようにしてもよい。すなわち、管腔の領域毎に設定された各特徴点の3次元空間内における所定の伸縮率上限値(閾値)を、各特徴点の位置の算出に用いてもよい。そして、各特徴点の位置を決定する際には、検出した各特徴点の位置の変化量が伸縮率上限値(閾値)により決定される範囲内であることが求められる。検出した特徴点の位置の変化量が所定の伸縮率上限値以下であるときに、各撮像画像に映っている各特徴点が同一であると判定される。
 以上のように、各特徴点が含まれる管腔の領域毎の伸縮率上限値、あるいは大腸腸管の固定点からの距離とその伸縮率上限値に基づく、各特徴点の位置の変化量上限値(閾値)[0]を、各特徴点の位置の算出の際に考慮するようにしてもよい。そして、管腔の領域毎に設定された各特徴点の所定の伸縮率上限値を用いて、複数の撮像画像に映っている共通の特徴点が同一であるか否かが判定される。
 伸縮率により決定された範囲内にある、異なるタイミングで検出された特徴点等同士が、パターンマッチングにより一致するとされたとき、これらの特徴点等同士が同一であると判断する。特徴点等の構造情報とする位置の情報は、特徴点等同士の情報に基づいて決定する。例えば、単純な場合としては、いずれか一方の特徴点の情報が構造情報とする位置の情報として採用される。
 なお、伸縮率により決定された範囲とは、各特徴点が含まれる管腔の領域の大腸腸管の固定点からの距離と伸縮率上限値に基づく範囲である。
 算出された複数の特徴点等の位置情報は、構造情報データに追加されることにより、管腔の構造情報が作成される(S5)。S5で作成される構造情報は、内視鏡2により観察した領域における1以上の特徴点等の集合から構成される。
 作成された管腔の構造情報は、モニタ6に表示される(S6)。図9は、モニタ6に表示される画像の例を示す図である。モニタ6の表示画面6aには、内視鏡画像表示領域31と、構造情報表示領域32を含む。
 構造情報表示領域32は、ライブビューである内視鏡画像を表示する内視鏡画像表示領域31の隣に配置されている。構造情報表示領域32は、S5で生成された構造情報SIを表示する。構造情報SIは、大腸の立体の管腔構造を1つの視点から見たときの画像であり、複数の特徴点等の位置情報から構成される。図10は、構造情報表示領域32に表示される構造情報SIの画像の例を示す図である。構造情報SIは、大腸の管腔の斜視図として表示されている。構造情報SIは、3Dデータであるので、ユーザすなわち医師は、視点位置を変更する指示を与えることにより、360度の所望の方向見たからときの管腔の構造を確認することができる。
 図10に示すように、構造情報SIは、S4で算出された特徴点等の情報の集合である。よって、構造情報SIにより示されない部分は、未観察箇所UIAを意味する。図10では、点線で示す領域付近が未観察箇所UIAである。よって、医者は、モニタ6に表示された大腸の管腔構造を見て、未観察箇所UIAを把握することができる。
 また、医師は、入力装置27aを操作して所定のコマンドを管腔構造検出装置5に供給し、S3で取得された先端部11の位置の情報から先端部11の時系列的な動きを表示させることもできる。図11は、モニタ6に表示される先端部11の軌跡を示した画像の例を示す図である。図11は、モニタ6の表示画面6a上に表示される1つのウインドウ33の画像を示す。図11に示すウインドウ33には、Z軸方向からみた、先端部11のXY平面内の動きを示す画像が表示されている。図11では、XY平面上の所定の点を0として、XY方向の移動距離がmm(ミリメートル)の単位で分かるように、先端部11の軌跡が表示されている。医師は、図11の画像をモニタ6に表示させることにより、先端部11の軌跡を把握することができる。
 例えば、先端部11の位置情報に基づいて、二人の医師の先端部11の軌跡を比較することができる。例えば、同じ患者Paの大腸への挿入部2bの挿入操作を、二人の医師の先端部11の位置情報から生成した先端部11の軌跡から比較することができる。
 図12は、コロンモデルを対象に、二人の医師についての先端部11の軌跡をモニタ6の表示画面6a上に表示させたときの表示例を示す図である。表示画面6aには、2つのウインドウ33a、33bが表示されている。ウインドウ33aは、医師Aの先端部11の軌跡を示す画像を表示し、ウインドウ33bは、医師Bの先端部11の軌跡を示す画像を表示する。医師Aは、内視鏡のベテラン医師であり、医師Bは、内視鏡の中堅医師である。
 ウインドウ33bに表示される中堅医師Bの先端部11の軌跡は、ウインドウ33aに表示されるベテラン医師Aの先端部11の軌跡と比較すると、肛門(AA)近辺、下行結腸(DC)内及び上行結腸(AC)内において、動きが多く、挿入部2bのスムーズな挿入あるいは抜去ができていないことを示している。
 よって、先端部11の軌跡情報を用いて、挿入部2bの挿入あるいは抜去操作の比較などをすることができる。
(特徴点等の位置の算出)
 S4の特徴点等の位置の算出は、種々の方法がある。以下に、いくつかの方法について説明する。
1.SLAM,SfMなどの手法を利用して、連続する複数の画像上の特徴点の位置を算出する場合
 被写体を撮像する撮像素子15の位置(ここでは先端部11の位置)及び姿勢の情報を用いて、各特徴点の3次元空間内の位置の算出するためのバンドル調整の最適化を行う方法について説明する。
 バンドル調整は、非線形最小二乗法を用いて、画像から、内部パラメータ、外部パラメータ及び世界座標点群を最適化する誤差調整の方法である。例えば、推定された各パラメータを用いて、抽出された複数の特徴点の世界座標点を世界座標点へ透視投影変換し、再投影誤差が最小になるように、各パラメータと各世界座標点群が求められる。
 先端部11についての外部パラメータは、5点及び8点アルゴリズムを解くことによって算出される。特徴点の位置は、先端部11の位置と三角測量法に従って算出される。画像平面上に投影された3D点の座標と、再投影誤差による特徴点との誤差Eは、次の式(1)により表される。
Figure JPOXMLDOC01-appb-I000001
 ここで、Lは、K個の画像上の特徴点の数であり、Psjは、画像平面上に三角測量と先端部11のパラメータにより推定された3D点Piの座標位置であり、Piは、画像上の対応する特徴点の座標位置である。先端部11の位置座標は、LM(Levenberg-Marquartdt)法を用いて、式(1)の誤差Eの関数を最小化するように算出される。
 上述したS4の特徴点の3次元空間内の位置は、画像上の抽出した特徴点の座標情報と、検出された先端部11の位置と姿勢の情報とに基づいて算出される。しかし、本実施形態では、先端部11の位置と姿勢の情報は、位置姿勢検出部25により検出され、略正確である。よって、先端部11の位置と姿勢の情報は、バンドル調整における外部パラメータの推定対象には含まれない。従って、バンドル調整による各特徴点の3次元空間内の位置の推定精度が高いだけでなく、抽出した複数の特徴点の位置の演算時間も短くなる。
 図13は、各特徴点の3次元空間内の位置算出をバンドル調整により行う方法のフローチャートである。
 プロセッサ21は、図5に示す肛門の位置APが初期位置と設定されたときを、時刻tをt0とし、ソフトウエアカウンタのカウント値nを、0とする(S11)。プロセッサ21は、時刻t0における内視鏡画像(すなわち管腔画像)と、先端部11の位置と姿勢の情報を取得する(S12)。内視鏡画像は、画像処理装置3から取得される。先端部11の位置と姿勢の情報は、位置姿勢検出部25から取得される。
 プロセッサ21は、初期位置すなわち肛門の位置APにおける先端部11の位置と姿勢を決定する(S13)。例えば、肛門の位置APを原点(x、y、z)が(0,0,0)に、姿勢(vx、vy、vz)が(0,1,0)に決定される。S11とS13が、図4のS1に対応する。
 プロセッサ21は、時刻(t0+nΔt)における内視鏡画像と、先端部11の位置と姿勢の情報を取得する(S14)。S12とS14が、図4のS2に対応する。
 なお、先端部11の位置と姿勢の情報は、修正してもよい。例えば、カルマンフィルタを用いて、先端部11が過去に通ったパスが修正され、その修正されたパスに基づいて、過去の先端部11の位置が修正される。
 プロセッサ21は、nがkになると、各内視鏡画像における複数の特徴点の抽出し、k個の時点における先端部11の位置と姿勢すなわち先端部11の3次元配置を既知として、得られた内視鏡画像に共通して含まれるm個の特徴点の位置を、上述したバンドル調整により算出する(S15)。よって、S15における各内視鏡画像における複数の特徴点の抽出処理が、各撮像画像中の複数の特徴点を抽出する特徴点抽出部を構成する。S15では、複数の時点の撮像画像に共通して映されている特徴点が抽出される。S15における各特徴点の3次元空間内の位置の算出処理が、抽出された複数の特徴点の撮像画像中の位置と、挿入部2bの3次元配置とから、特徴点の3次元空間内の位置を算出する3次元位置算出部を構成する。より具体的には、複数の時点の挿入部2bの3次元配置情報と、複数の時点の撮像画像に共通して映されている特徴点の撮像画像上の位置とに基づき、特徴点の3次元空間内の位置が算出される。そして、バンドル調整により各特徴点の3次元空間内の位置は決定される。
 図14は、連続して取得された複数の内視鏡画像上の特徴点と、先端部11の位置と姿勢の関係を説明するための模式図である。図14において、白い三角形Pwは、先端部11の実際の位置と姿勢を示し、黒い三角形Pbは、先端部11の推定された位置と姿勢を示す。先端部11は、実線に沿って実際に移動したことを示している。推定された先端部11は、点線に沿って移動している。時間経過に伴って、先端部11の位置は移動し、先端部11の姿勢は変化している。
 また、図14において、白い四角形pwは、特徴点の実際の位置を示し、黒い四角形pbは、特徴点の推定すなわち算出された位置を示す。特徴点は、例えば、内視鏡画像中において形状や色が特徴的で、判別あるいは追跡が容易な箇所である。
 大腸の3次元管腔構造を得るには、大腸の腸管の内壁上の複数の特定箇所(ここでは特徴点)の座標を求め、求めた複数の座標の集合により、あるいはそれらの座標を繋ぎ合わせることにより3次元モデルが生成される。すなわち、管腔の3次元構造は、3次元空間内の算出された各特徴点の位置から決定される。
 上述したように、内視鏡画像の情報のみを用いて、管腔の内壁上のある程度以上の数の特徴点の位置を算出することができる。内視鏡画像の情報のみを用いる場合、SLAM、SfM、などの技術を用いることができる。しかし、これらの技術を用いる場合、腸管の内壁上の複数の特徴点の座標が未知であるのに加え、 経過時間ごとの内視鏡2の先端位置と姿勢も未知であるため、腸管の内壁上の複数の特徴点の位置を推定するには膨大な演算が必要となり、推定精度も低い。
 図14において、各時点における撮像素子11の位置と姿勢の情報は、6軸分の情報を含むため、k個の時点における撮像素子11の位置と姿勢の情報は、6k個の情報を含む。各特徴点の位置は、3軸分の情報を含むため、m個の特徴点の位置の情報は、3m個の情報を含む。よって、(6k+3m)個のパラメータは、バンドル調整の最適化演算により算出される。
 多くのパラメータをバンドル調整により算出する場合、検出誤差が蓄積されるため、生成されていく3次元モデル構造がずれていくという問題が生じる。また、内視鏡2の挿入部2bの先端部が管腔の内壁に押し当てられるなどして連続した内視鏡画像が得られないため、3次元モデル構造が算出できなくなるという問題もある。
 これに対して、本実施形態では、磁気センサ16により時間経過に伴う先端部11の位置及び姿勢の情報を得て既知としているので、バンドル調整において算出されるパラメータ数を少なくして、最適化演算の処理量を軽減してかつ高速化できる。さらに、特徴点の位置を三角測量により算出することもできるので、連続した内視鏡画像が得られなくても、3次元モデル構造が算出できる。
 また、先端部11の位置及び姿勢と、各特徴点の3次元空間内の位置とをバンドル調整により算出するとき、算出した各特徴点の位置の誤差が蓄積され、管腔構造が徐々に実際の構造とはずれてしまうという問題があるが、本実施形態では、先端部11の位置と姿勢は、磁気センサ16により検出しているので、このような積算誤差が生じることはない。
 例えば、上述した図14の場合、内視鏡画像のみから各特徴点の位置を算出するとき、従来は、(6k+3m)個のパラメータのための最適化演算が行われるが、先端部11の位置及び姿勢の情報は既知となるので、最適化演算は、3m個のパラメータを算出だけであるので、バンドル調整の最適化演算の処理量は軽減されかつ高速化できる。
 また、内視鏡2の挿入部2bの先端部11が管腔の内壁に押し当てられたり、汚れた洗浄水に浸ってしまったり、内視鏡画像がぶれるなどして適切な連続した内視鏡画像が得られないかった場合があっても、先端部11の位置と姿勢の情報は得られている。よって、先端部11が管腔の内壁に押し当てられるなどして連続した内視鏡画像が得られなかった場合が生じても、3m個のパラメータを算出できる可能性は高まる。結果として、管腔構造の算出のロバスト性が高まる。
 図13に戻り、プロセッサ21は、作成済の管腔構造情報に、新たに算出された特徴点の位置情報を追加して、管腔構造情報を更新する(S16)。S16は、図4のS5に対応する。
 プロセッサ21は、過去に算出した特徴点の位置情報を修正する(S17)。新たに算出して得られた3m個の特徴点のうち、過去に算出された特徴点の位置情報は、新たに算出された位置情報を用いて、例えば平均値演算により、過去に算出された位置情報を修正する。
 なお、S17の処理は、行わなくてもよく、新たに算出された特徴点の位置情報で、過去に算出された各特徴点の位置情報を更新するようにしてもよい。
 プロセッサ21は、更新された管腔構造情報に基づいて、管腔構造表示領域32に管腔構造の画像を表示するように、管腔構造の画像データをモニタ6に出力する(S18)。S18は、図4のS6に対応する。
 S18の後、プロセッサ21は、nを1だけインクリメントし(S19)、検査終了のコマンドが入力されたかを判定する(S20)。検査終了のコマンドは、例えば、挿入部2bが大腸から抜去された後に、医者が入力装置27aに所定のコマンドを入力すると(S20:YES)、管腔構造算出プログラムLSPの実行が終了する。
 検査終了のコマンドが入力されないとき(S20:NO)、処理は、S14へ移行する。その結果、プロセッサ21は、内視鏡画像の最後の取得時刻から周期Δtだけ後の内視鏡画像を取得し(S14)、S14以降の処理を実行する。
 なお、上述した方法では、6軸の磁気センサ16により先端部11の位置と姿勢の情報を検出して、バンドル調整の最適化により各特徴点の3次元位置を算出しているが、6軸の全ての情報の一部を既知として、すなわち3次元位置(x、y、z)と3軸方向(vx、vy、vz)の少なくとも一つを既知として、バンドル調整の最適化により各特徴点の3次元位置を算出するようにしてもよい。
 よって、バンドル調整において先端部11の位置と姿勢の情報の少なくとも1つを既知として各特徴点の3次元位置を算出するので、各特徴点の3次元位置を算出精度も高まると共に、最適化演算の全体時間も短くなる。
2.2つの画像から三角測量画像を用いて特徴点(例えば、画像の中心点)の位置を算出する場合
 各特徴点の位置を、視点の異なる2枚の画像から三角測量法を用いて算出する方法について説明する。図15は、複数の内視鏡画像上の特徴点と、先端部11の位置と姿勢の関係を説明するための模式図である。図15において、白い三角形Pは、先端部11の実際の位置と姿勢すなわち3次元配置を示す。先端部11は、実線に沿って実際に移動したことを示している。図15において、白い四角形pは、特徴点の実際の位置を示す。各特徴点は、例えば、内視鏡画像中において形状や色が特徴的で、判別あるいは追跡が容易な箇所である。
 実線で示すように、時刻t1,t2において取得された先端部11の位置と姿勢の情報と、時刻t1で取得された画像上の特徴点p1、p2と時刻t2で取得された画像上の特徴点p1、p2のそれぞれの位置とから、三角測量により、特徴点p1、p2の位置が算出される。
 同様に、点線で示すように、時刻t2,t3において取得された先端部11の位置と姿勢の情報と、時刻t2で取得された画像上の特徴点p3、p4と時刻t4で取得された画像上の特徴点p3、p4のそれぞれの位置とから、三角測量により、特徴点p3、p4の位置が算出される。
 以上のように、各特徴点の位置を、先端部11の位置及び姿勢の情報と、2枚の内視鏡画像とから、三角測量を用いて算出する。すなわち、複数の時点の撮像素子15の位置及び姿勢の情報と、複数の時点の撮像素子15により取得された撮像画像に共通に映されている特徴点の撮像画像上の位置とから三角測量に基づき各特徴点の3次元空間内の位置を算出し、管腔の3次元構造が決定される。
 なお、以上説明した三角測量は、2つの時刻において得られた2枚の内視鏡画像に基づいて行われるが、同時刻に得られた2枚の内視鏡画像に基づいて行うようにしてもよい。
 図16は、ステレオカメラを有する挿入部の先端部の先端部分の斜視図である。先端部11の先端面には、2つの観察窓11a、11bと、2つの照明窓11cが配置されている。各観察窓11a、11bの後ろ側には、撮像光学系と撮像素子が配置されている。撮像光学系と撮像素子が撮像部11dを構成し、2つの撮像部11dがステレオカメラを構成する。
 先端部11に配置されたステレオカメラにより取得された2枚の内視鏡画像中のステレオマッチング領域の位置から三角測量により、大腸の内壁の各点の位置を算出することができる。
3.照度差ステレオ画像を用いて特徴点の位置を算出する場合
 各特徴点の位置を、照度差ステレオ画像を用いて算出する方法について説明する。図17は、複数の照明窓を有する挿入部の先端部の先端面の平面図である。図17は、先端部11の先端面11a1を、挿入部2bの先端側から見た図である。
 図17に示すように、先端部11の先端面11a1には、観察窓41と、3つの照明窓42と、鉗子口43と、洗浄用ノズル44と、副送水口45が設けられている。観察窓41の後ろ側には、撮像部11dが設けられている。3つの照明窓42は、観察窓41の周囲に配設されている。各照明窓42の後ろ側には、図示しないライトガイドの先端面が配設されている。鉗子口43は、挿入部2bに設けられた処置具挿通チャネル内に通された処置具が突出する開口である。洗浄用ノズル44は、観察窓41の表面を洗浄するための水を吐出する。副送水口45は、副送水用の水が吐出する開口である。
 3つの照明窓42から出射される3つの照明光は、光源装置4に設けられた照明用の複数の発光ダイオードの駆動が制御されることにより、切り替えられて選択的に出射可能となっている。
 被写体の表面の画像中の影の部分は、照明光の切り替えにより状態が変化する。よって、その変化量に基づいて、被写体の表面上の影の部分までの距離を算出することができる。すなわち、選択的に動作させた複数の照明部により照明して得られた撮像画像中の影領域の画像から照度差ステレオに基づき、管腔の3次元構造を決定することができる。
4.距離センサを用いて管腔構造を算出する場合
 管腔の内壁上の各点の位置を、先端部11に設けた距離センサを用いて算出する方法について説明する。
 図18は、距離センサを有する挿入部の先端部の先端部分の斜視図である。先端部11の先端面11a1には、観察窓41と、2つの照明窓42と、鉗子口43と、距離センサ51が配設されている。
 距離センサ51は、TOF(Time Of Flight)センサであり、ここでは、TOFにより距離画像を検出するセンサである。距離センサ51は、光の飛行時間を計ることにより距離を計測する。イメージセンサの各画素にTOF機能が埋め込まれている。よって、距離センサ51は、画素毎の距離情報を得る。すなわち、距離センサ51は、挿入部2bの先端部11に設けられ、先端部11から管腔の内壁までの距離を検出する。
 距離センサ51により検出された各画素についての距離と、先端部11の位置と姿勢すなわち配置とから、大腸の内壁の各点の位置情報すなわち管腔の3次元構造が算出可能である。なお、距離センサは、LiDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)などの他の方式のセンサでもよい。
 図19は、距離センサを用いた管腔の内壁の3次元位置の算出を行う方法のフローチャートである。図19において、図13と同じ処理については、同じステップ番号を付して説明は省略し、異なる処理についてのみ説明する。
 距離センサ51を用いる場合、距離センサ51の1以上の所定の画素を特徴点とすることにより、各特徴点の位置は、距離センサ51の各画素の距離情報と、先端部11の位置と姿勢の情報とから、大腸の内壁の各点の3次元位置が算出可能である。管腔構造は、内壁の各点の3次元位置情報の集合により構成される。すなわち、図13において、プロセッサ21は、S21では、距離センサ51から出力される距離情報と、S14で得られた先端部11の位置と姿勢の情報とから、測距された点(特徴点)の3次元座標を算出する。
5.その他の方法による測距
 なお、先端部11に所定のパターン光を出射する照明部を設け、パターン光投影により先端部11から内壁までの測距を行ってもよい。
 以上のように、上述した実施形態によれば、挿入部2bの先端部11の位置と姿勢(すなわち配置)の情報と、内視鏡画像の画像情報又は測距センサの距離情報とを用いて、大腸の内壁の構造情報を得ることができる。
 上述した実施形態では、先端部11の位置と姿勢の情報が得られるので、先端部が管壁に近づき過ぎたりして、内視鏡画像が得られない、あるいは距離センサ51の距離情報が得られない場合があっても、内視鏡画像等が得られない管腔部分の構造は算出できないが、内視鏡画像等が得られた管腔部分の構造は算出できる。
 図20は、部分的に算出された管腔構造の例を説明するための図である。図20において、二点鎖線の楕円で示す部分は、内視鏡画像が得られたあるいは距離センサ51の距離情報が得られた大腸の一部の領域を示している。点線で示す部分については、内視鏡画像が得られなかったあるいは距離センサ51の距離情報が得られなかったが、実線で示す部分領域の構造情報が算出される。すなわち、各セットにおいて他のセットとの特徴点同士の重なりが無い若しくは判断できない場合は、繋がりの無い複数の管腔構造が、各管腔構造の位置情報に基づいて、それぞれの位置に配置される。
 よって、内視鏡画像が途中で得られなくても、複数の内視鏡画像から、各特徴点の位置が算出可能であるので、結果として、管腔の3次元モデル構造は、部分的に算出可能となる。
 なお、上述した実施形態では、挿入部2bの先端部11の位置と姿勢を検出するための位置センサとして磁気センサ16が用いられているが、先端部11の位置と姿勢は、別の手段により検出するようにしてもよい。
 図21は、形状センサを有する内視鏡と、挿入量及び捩り量を検出するセンサを用いた先端部11の位置と姿勢を検出する方法を説明するための図である。
 形状センサ61は、挿入部2bの内部に基端から先端に亘って配設されている。形状センサ61は、例えば、光ファイバを利用して、特定箇所の曲率から曲げ量を検出する曲げセンサであるファイバセンサである。
 挿入量・捩り量センサ62は、肛門の近くに配置され、挿入部2bが挿通可能な孔を有する円筒形状を有する。挿入量・捩り量センサ62の孔の内周面には、挿入部2bの軸方向の挿入量を検出するためのエンコーダと、挿入部2bの軸周りの回転量を検出するエンコーダとが配設されている。よって、形状センサ61と挿入量・捩り量センサ62を用いて、肛門の位置を基準として、挿入部2bの挿入量と、捩り量とに基づいて、先端部11の位置と姿勢を推定することができる。
 また、形状センサ61は、光ファイバを利用したものでなく、先端部11に1つの磁気センサ16を設けると共に、複数の磁気センサ16を所定の間隔で挿入部2b内に配置することによって、挿入部2bの形状を検出するようにしてもよい。図22は、複数の磁気センサ16が挿入部2b内に配設された内視鏡の斜視図である。図22に示すような複数の磁気センサ16の位置情報から、挿入部2bの形状を算出することができる。
 なお、図2において点線で示すように、内視鏡2の挿入部2b内に、上述した形状センサ61を配設してもよい。形状センサ61を用いれば、挿入部2bの全体形状も把握できる。
 上述した実施形態では、医者が内視鏡画像を見ながら、管腔構造は算出されるが、例えば襞の裏側などの隠れ部分があるとその領域の管腔構造は算出されない。隠れ部分は、内視鏡画像に写っていない領域である。内視鏡画像に含まれない領域は、管腔構造が生成されないことになるので、そこで、内視鏡画像等から隠れ部分の存在を検出し、医者に告知するようにしてもよい。
 図23は、隠れ部分があるときのモニタ6の表示例を示す図である。モニタ6の表示画面6aの内視鏡画像表示領域31には、内壁の一部の奥側に影ができている大腸の内視鏡画像が表示されている。照明光が当たらずに暗い影の部分SAは、他の部分に比べて明るさが段階的に低くなる。そのため、隣り合う画素あるいは隣り合う画素領域間において輝度差が、所定の輝度値以上であるとき、隠れ部分があると判定することができる。
 そのような場合、図23のポップアップウインドウ34のように、所定のメッセージをモニタ6に表示させることにより、ユーザに告知して、隠れ部分を観察させることができる。隠れ部分には、憩室等の凹みも含まれる。ユーザが、所定のメッセージを見て、隠れ部分の観察をすると、その観察した領域の管腔構造の情報が算出される。
 なお、上述した例では、隠れ部分は、照明光が当たらない影の領域の有無により検出しているが、上述した距離センサ51等の距離画像情報を用いて、同様の隠れ部分の有無を検出するようにしてもよい。隣り合う画素あるいは隣り合う画素領域間において距離差が、所定の距離値以上である、等の場合、隠れ部分があると判定することができる。
 図24は、画像の輝度値による未観察領域の告知処理の流れの例を示すフローチャートである。図24の処理は、図4のS2において新しい視点での内視鏡画像を取得されたときに、図4の処理と並行して実行される。プロセッサ21は、S2において取得された新しい視点での内視鏡画像の明るさ情報を得る(S31)。すなわち画像中の各画素の輝度情報が取得される。
 プロセッサ21は、画像中の所定の画素領域内において、a)隣り合う2つの画素の輝度値の差が所定値以上である、又はb)暗い筋状部分がある、の有無を判定すなわち確認する(S32)。
 プロセッサ21は、a)及びb)のいずれかが成り立つかを判定する(S33)。a)及びb)のいずれかが成り立つとき(S33:YES)、プロセッサ21は、視野内に隠れ部分がある可能性があるとして、所定のメッセージをモニタ6に表示する(S34)。所定のメッセージは、例えば図23のポップアップウインドウ33のようなメッセージである。a)及びb)のいずれかも成り立たないとき(S33:NO)、処理は、何もしない。S34の処理は、撮像画像中の隣り合う2つの画素又は2つの画素領域間の輝度値の差が、所定値以上であるとき、所定の告知を行う告知部を構成する。
 図25は、距離センサ51の距離画像による未観察領域の告知処理の流れの例を示すフローチャートである。図25の処理は、図4のS2において新しい視点での内視鏡画像を取得されたときに、図4の処理と並行して実行される。プロセッサ21は、S2において取得された新しい視点での距離センサ51の距離画像情報を得る(S41)。すなわち画像中の各画素の距離情報が取得される。
 プロセッサ21は、画像中の所定の画素領域内において、c)隣り合う2つの画素の距離の差が所定値以上である、又はd)距離の変化が連続しない部分がある、の有無を判定すなわち確認する(S42)。
 プロセッサ21は、c)及びd)のいずれかが成り立つかを判定する(S43)。c)及びd)のいずれかが成り立つとき(S43:YES)、プロセッサ21は、視野内に隠れ部分がある可能性があるとして、所定のメッセージをモニタ6に表示する(44)。所定のメッセージは、例えば図23のポップアップウインドウ34のようなメッセージである。c)及びd)のいずれかも成り立たないとき(S43:NO)、処理は、何もしない。S43の処理は、距離画像中の隣り合う2つの画素又は2つの画素領域間の距離値の差が、所定値以上であるとき、所定の告知を行う告知部を構成する。
 以上のように、上述した実施形態によれば、臓器の動きなどによる画像不良が生じても各特徴点の位置から管腔の3次元モデル構造を算出可能な内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法を提供することができる。
 本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。

Claims (21)

  1.  被写体となる管腔に挿入される挿入部と、
     前記挿入部に設けられ、前記被写体の撮像画像を取得する撮像部と、
     前記撮像部の位置及び向きの少なくとも一部の情報を含む3次元配置を検出するための検出装置と、
     前記撮像画像と前記3次元配置に基づいて、前記管腔の3次元構造を算出する管腔構造算出部と、
    を具備する内視鏡システム。
  2.  前記管腔構造算出部は、
     各撮像画像中の複数の特徴点を抽出する特徴点抽出部と、
     前記複数の特徴点の前記撮像画像上の位置と、前記挿入部の前記3次元配置とから、各特徴点の3次元空間内の位置を算出する3次元位置算出部と、
    を有し、
     前記管腔構造算出部は、前記3次元空間内の算出された前記各特徴点の位置から前記管腔の前記3次元構造を算出する、請求項1に記載の内視鏡システム。
  3.  前記撮像部は、複数の時点の前記撮像画像を取得し、
     前記特徴点抽出部は、前記複数の時点の前記撮像画像に共通して映されている前記特徴点を抽出し、
     前記検出装置は、前記複数の時点の前記挿入部の前記3次元配置情報を取得し、
     前記3次元位置算出部は、前記複数の時点の前記挿入部の前記3次元配置情報と、複数の時点の前記撮像画像に共通して映されている前記特徴点の前記撮像画像上の位置とに基づき、前記特徴点の前記3次元空間内の位置を算出する、請求項2に記載の内視鏡システム。
  4.  前記管腔構造算出部は、前記3次元構造の一部である部分3次元構造を複数算出し、各々の前記部分3次元構造を作成しているときの前記3次元配置に基づき、複数の前記部分3次元構造の配置を決定することで前記3次元構造を算出する、請求項1に記載の内視鏡システム。
  5.  前記管腔は、外部から固定された固定部と、外部から固定されていない可動部とを有し、
     前記管腔構造算出部は、前記可動部に対応する前記部分3次元構造と前記固定部との距離を算出し、前記部分3次元構造と前記固定部との距離に基づいて、前記部分3次元構造の前記配置を補正する、請求項4に記載の内視鏡システム。
  6.  前記管腔構造算出部は、各撮像画像中の複数の特徴点を抽出する特徴点抽出部を有し、前記各特徴点の位置の情報を含んだ複数の前記部分3次元構造を算出し、複数の前記3次元構造に共通する前記特徴点の位置に基づき、前記部分3次元モデルの前記配置を補正する、請求項4に記載の内視鏡システム。
  7.  前記管腔は、外部から固定された固定部と、外部から固定されていない可動部とを有し、
     前記管腔構造算出部は、複数の前記3次元構造の間で類似する前記特徴点が抽出されたときに、前記類似する特徴点から前記固定部までの距離の違いを所定の基準値と比較することで、類似する前記特徴点が数の前記3次元構造に共通する前記特徴点であるか否かを判定する、請求項6に記載の内視鏡システム。
  8.  前記検出装置は、時間経過に伴う前記3次元配置の変化の情報である3次元配置時間変化情報を検出し、
     前記管腔構造算出部は、前記3次元配置時間変化情報に基づき、前記挿入部の方向転換場所と滞留場所との少なくとも一方を判定することで、前記固定部と前記可動部の位置を推定する、請求項5に記載の内視鏡システム。
  9.  前記3次元位置算出部は、誤差調整により前記各特徴点の前記3次元空間内の位置を決定する、請求項2に記載の内視鏡システム。
  10.  前記3次元位置算出部は、前記検出装置により検出された前記配置を既知として、バンドル調整による前記誤差調整により前記各特徴点の前記3次元空間内の位置を決定する、請求項9に記載の内視鏡システム。
  11.  前記3次元位置算出部は、記複数の時点の前記挿入部の前記3次元配置情報と、複数の時点の前記撮像画像に共通して映されている前記特徴点の前記撮像画像上の位置とから、三角測量に基づき前記特徴点の前記3次元空間内の位置を算出する、請求項1に記載の内視鏡システム。
  12.  前記先端部に設けられた複数の照明部を有し、
     前記管腔構造算出部は、選択的に動作させた前記複数の照明部により照明して得られた前記撮像画像中の影領域の画像から照度差ステレオに基づき、前記管腔の3次元構造を決定する、請求項1に記載の内視鏡システム。
  13.  前記撮像部は、複数の時点の前記撮像画像を取得し、
     前記3次元位置算出部は、前記管腔の領域毎に設定された各特徴点の所定の伸縮率上限値を用いて、複数の前記撮像画像に映っている共通の特徴点が同一であるか否かを判定する、請求項2に記載の内視鏡システム。
  14.  前記3次元位置算出部は、検出した特徴点の位置の変化量が前記所定の伸縮率上限値以下であるときに、各々の前記撮像画像に映っている各特徴点が同一であると判定する、請求項13に記載の内視鏡システム。
  15.  前記撮像画像中の隣り合う2つの画素又は2つの画素領域間の輝度値の差が、所定値以上であるとき、所定の告知を行う告知部を有する、請求項1に記載の内視鏡システム。
  16.  被写体となる管腔に挿入される挿入部に設けられた撮像部によって取得された撮像画像と、検出装置によって検出された前記撮像部の位置及び向きの少なくとも一部の情報を含む3次元配置と、を取得する入力部と、
     前記撮像画像と前記3次元配置に基づいて、前記管腔の3次元構造を算出する管腔構造算出部と、
    を具備する、管腔構造算出装置。
  17.  被写体となる管腔に挿入される挿入部と、
     前記挿入部の先端部の3次元配置を検出するための検出装置と、
     前記先端部に設けられ、前記先端部から前記管腔の内壁までの距離を検出する距離センサと、
     前記距離と前記3次元配置に基づいて、前記管腔の3次元構造を算出する管腔構造算出部と、
    を具備する、内視鏡システム。
  18.  前記距離センサは、距離画像を検出するセンサである、請求項17に記載の内視鏡システム。
  19.  前記距離画像中の隣り合う2つの画素又は2つの画素領域間の距離値の差が、所定値以上であるとき、所定の告知を行う告知部を有する、請求項17に記載の内視鏡システム。
  20.  被写体となる管腔に挿入される挿入部に設けられた撮像部の位置及び向きの少なくとも一部の情報を含む3次元配置を検出するための検出装置によって検出された前記3次元配置と、前記先端部に設けられ、前記先端部から前記管腔の内壁までの距離を検出する距離センサにより検出された前記距離と、を取得する入力部と、
     前記3次元配置と前記距離とに基づいて、前記管腔の3次元構造を算出する管腔構造算出部と、
    を具備する、管腔構造算出装置。
  21.  管腔構造情報の作成方法であって、
     被写体となる管腔に挿入された挿入部によって取得された前記被写体の撮像画像を取得することと、
     前記挿入部の位置及び向きの少なくとも一つの情報を含む3次元配置を検出することと、
     前記撮像画像と前記3次元配置に基づいて、前記管腔の3次元構造を算出することと、
    を具備する、管腔構造情報の作成方法。
PCT/JP2020/006444 2020-02-19 2020-02-19 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法 WO2021166103A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022501464A JP7423740B2 (ja) 2020-02-19 2020-02-19 内視鏡システム、管腔構造算出装置、管腔構造算出装置の作動方法及び管腔構造情報作成プログラム
CN202080096381.1A CN115087385A (zh) 2020-02-19 2020-02-19 内窥镜***、管腔结构计算装置以及管腔结构信息的制作方法
PCT/JP2020/006444 WO2021166103A1 (ja) 2020-02-19 2020-02-19 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法
US17/888,907 US20220398771A1 (en) 2020-02-19 2022-08-16 Luminal structure calculation apparatus, creation method for luminal structure information, and non-transitory recording medium recording luminal structure information creation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/006444 WO2021166103A1 (ja) 2020-02-19 2020-02-19 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/888,907 Continuation US20220398771A1 (en) 2020-02-19 2022-08-16 Luminal structure calculation apparatus, creation method for luminal structure information, and non-transitory recording medium recording luminal structure information creation program

Publications (1)

Publication Number Publication Date
WO2021166103A1 true WO2021166103A1 (ja) 2021-08-26

Family

ID=77390747

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/006444 WO2021166103A1 (ja) 2020-02-19 2020-02-19 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法

Country Status (4)

Country Link
US (1) US20220398771A1 (ja)
JP (1) JP7423740B2 (ja)
CN (1) CN115087385A (ja)
WO (1) WO2021166103A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032074A1 (ja) * 2021-09-01 2023-03-09 オリンパスメディカルシステムズ株式会社 マニピュレータシステム及びマニピュレータの形状推定方法
JP2023513646A (ja) * 2021-01-14 2023-04-03 コ,ジファン 内視鏡を用いた大腸検査ガイド装置及び方法
WO2023119373A1 (ja) * 2021-12-20 2023-06-29 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、プログラム、およびプログラムを記録している不揮発性記憶媒体
WO2024029503A1 (ja) * 2022-08-01 2024-02-08 日本電気株式会社 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006288752A (ja) * 2005-04-11 2006-10-26 Olympus Medical Systems Corp 内視鏡挿入形状解析装置および、内視鏡挿入形状解析方法
WO2008059636A1 (fr) * 2006-11-13 2008-05-22 Olympus Medical Systems Corp. Système d'analyse de forme lors de l'insertion d'un endoscope et système d'observation d'un corps vivant
WO2009069395A1 (ja) * 2007-11-29 2009-06-04 Olympus Medical Systems Corp. 内視鏡湾曲制御装置及び内視鏡システム
WO2017212725A1 (ja) * 2016-06-07 2017-12-14 オリンパス株式会社 医療用観察システム
WO2018230098A1 (ja) * 2017-06-15 2018-12-20 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006288752A (ja) * 2005-04-11 2006-10-26 Olympus Medical Systems Corp 内視鏡挿入形状解析装置および、内視鏡挿入形状解析方法
WO2008059636A1 (fr) * 2006-11-13 2008-05-22 Olympus Medical Systems Corp. Système d'analyse de forme lors de l'insertion d'un endoscope et système d'observation d'un corps vivant
WO2009069395A1 (ja) * 2007-11-29 2009-06-04 Olympus Medical Systems Corp. 内視鏡湾曲制御装置及び内視鏡システム
WO2017212725A1 (ja) * 2016-06-07 2017-12-14 オリンパス株式会社 医療用観察システム
WO2018230098A1 (ja) * 2017-06-15 2018-12-20 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023513646A (ja) * 2021-01-14 2023-04-03 コ,ジファン 内視鏡を用いた大腸検査ガイド装置及び方法
JP7374224B2 (ja) 2021-01-14 2023-11-06 コ,ジファン 内視鏡を用いた大腸検査ガイド装置
WO2023032074A1 (ja) * 2021-09-01 2023-03-09 オリンパスメディカルシステムズ株式会社 マニピュレータシステム及びマニピュレータの形状推定方法
WO2023119373A1 (ja) * 2021-12-20 2023-06-29 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、プログラム、およびプログラムを記録している不揮発性記憶媒体
WO2024029503A1 (ja) * 2022-08-01 2024-02-08 日本電気株式会社 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
WO2024028924A1 (ja) * 2022-08-01 2024-02-08 日本電気株式会社 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体

Also Published As

Publication number Publication date
US20220398771A1 (en) 2022-12-15
JPWO2021166103A1 (ja) 2021-08-26
JP7423740B2 (ja) 2024-01-29
CN115087385A (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
WO2021166103A1 (ja) 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法
US11503986B2 (en) Robotic systems and methods for navigation of luminal network that detect physiological noise
JP5676058B1 (ja) 内視鏡システム及び内視鏡システムの作動方法
KR102163327B1 (ko) 수술 시스템의 효율적인 쌍방향 출혈 검출 방법 및 시스템
WO2010082383A1 (ja) 内視鏡システム
CN105188594B (zh) 根据解剖特征对内窥镜的机器人控制
US20110018987A1 (en) Endoscope apparatus and measuring method
JP2012165838A (ja) 内視鏡挿入支援装置
JP7385731B2 (ja) 内視鏡システム、画像処理装置の作動方法及び内視鏡
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
CN110769731B (zh) 内窥镜***、内窥镜用处理***、图像处理方法
CA3190749A1 (en) Devices, systems, and methods for identifying unexamined regions during a medical procedure
WO2019244345A1 (ja) ランドマーク推定方法、及び、内視鏡装置
KR20200132174A (ko) 증강현실 대장 내시경 시스템 및 이를 이용한 모니터링 방법
WO2022230160A1 (ja) 内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法
WO2024028934A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
JP7506264B2 (ja) 画像処理装置、内視鏡装置及び画像処理装置の作動方法
WO2024029504A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
WO2022202520A1 (ja) 医療情報処理装置、内視鏡システム、医療情報処理方法、及び医療情報処理プログラム
WO2024029503A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
WO2022202400A1 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2021176665A1 (ja) 手術支援システム、手術支援方法、及び、プログラム
CN118369029A (zh) 图像处理装置、图像处理方法、程序以及记录有程序的非易失性存储介质
CN115281745A (zh) 手术***和装置以及对手术***进行配置并执行内窥镜检查程序、包括ercp程序的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20920662

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022501464

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20920662

Country of ref document: EP

Kind code of ref document: A1