WO2022230160A1 - 内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法 - Google Patents

内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法 Download PDF

Info

Publication number
WO2022230160A1
WO2022230160A1 PCT/JP2021/017141 JP2021017141W WO2022230160A1 WO 2022230160 A1 WO2022230160 A1 WO 2022230160A1 JP 2021017141 W JP2021017141 W JP 2021017141W WO 2022230160 A1 WO2022230160 A1 WO 2022230160A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
lumen
dimension
dimensional structure
specific part
Prior art date
Application number
PCT/JP2021/017141
Other languages
English (en)
French (fr)
Inventor
潤 羽根
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to PCT/JP2021/017141 priority Critical patent/WO2022230160A1/ja
Priority to JP2023516988A priority patent/JPWO2022230160A1/ja
Priority to CN202180097593.6A priority patent/CN117241718A/zh
Publication of WO2022230160A1 publication Critical patent/WO2022230160A1/ja
Priority to US18/384,975 priority patent/US20240057847A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00097Sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1076Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions inside body cavities, e.g. using catheters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to an endoscope system, a lumen structure calculation system, a method for creating lumen structure information, and the like.
  • Patent Literature 1 discloses a measurement endoscope apparatus that performs measurement by image processing using an endoscope image by a pair of objective lenses.
  • An endoscope having a plurality of optical systems such as that disclosed in Patent Document 1
  • a monocular endoscope When using a monocular endoscope, near objects appear larger and distant objects appear smaller.
  • One aspect of the present disclosure relates to an insertion section that is inserted into a lumen that serves as a subject, a monocular imaging section that is provided in the insertion section and acquires a captured image of the subject, and at least part of the lumen.
  • an actual dimension determination information acquisition unit that acquires actual dimension determination information; a three-dimensional structure of the lumen and dimension information related to at least a part of the three-dimensional structure based on the captured image and the actual dimension determination information; a lumen structure calculator that calculates certain three-dimensional structural dimension information; a dimension estimator that outputs specific part dimension information, which is dimensions of a particular part in the three-dimensional structure, based on the three-dimensional structural dimension information; It relates to an endoscopic system including
  • a photographed image of a subject acquired by a monocular imaging unit provided in an insertion section inserted into a lumen serving as a subject and an actual size of at least part of the lumen are captured.
  • an acquisition unit that acquires actual dimension determination information that is information to be determined; a three-dimensional structure of the lumen and at least a part of the three-dimensional structure based on the captured image and the actual dimension determination information; a lumen structure calculation unit for calculating three-dimensional structural dimension information, which is information for determining actual dimensions; and a dimension estimator for outputting.
  • a captured image of the subject is acquired by a monocular imaging unit provided in an insertion section inserted into a lumen of the subject; obtaining actual size determination information that is information for determining the actual size of the lumen, and based on the captured image and the actual size determination information, the three-dimensional structure of the lumen and at least a part of the three-dimensional structure calculating three-dimensional structure dimension information, which is information for determining the actual dimensions of the three-dimensional structure; and a method of creating lumen structure information.
  • FIG. 2 is a block diagram for explaining a configuration example of an endoscope system; FIG. The perspective view explaining the example of an endoscope.
  • FIG. 4 is a diagram showing a display example of a monitor to which the technique of the present embodiment is applied;
  • FIG. 3 is a block diagram for explaining another configuration example of the endoscope system; The figure which shows the display example of the monitor explaining a specific site
  • FIG. 3 is a block diagram for explaining another configuration example of the endoscope system; The figure explaining a magnetic sensor.
  • FIG. 3 is a block diagram for explaining another configuration example of the endoscope system; 4 is a flowchart for explaining an example of processing for acquiring lumen structure information;
  • FIG. 4 is a diagram for explaining an example of luminal structure information; 4 is a flowchart for explaining another example of processing for acquiring luminal structure information; Schematic diagram for explaining the relationship between a plurality of feature points and the position and orientation of the tip. 4 is a flowchart for explaining an example of processing for calculating three-dimensional structural dimension information; The figure which shows the display example of the monitor explaining a comparison target. 4 is a flowchart for explaining another example of processing for calculating three-dimensional structural dimension information; The figure explaining a TOF sensor.
  • FIG. 5 is a diagram showing another display example of a monitor to which the method of the present embodiment is applied;
  • FIG. 4 is a diagram for explaining a method of calculating a distance between measurement points; FIG.
  • FIG 5 is a diagram showing another display example of a monitor to which the method of the present embodiment is applied; The figure explaining the measuring method of the dimension of a specific site
  • FIG. 1 is a block diagram illustrating a configuration example of an endoscope system 1 of this embodiment.
  • the endoscope system 1 includes an insertion section 2b and a lumen structure calculation system 100.
  • FIG. The insertion section 2b includes an imaging section 30.
  • the lumen structure calculation system 100 includes an acquisition section 110 , a lumen structure calculation section 120 and a dimension estimation section 130 .
  • Acquisition unit 110 includes an actual dimension determination information acquisition unit 112 . That is, the endoscope system 1 of this embodiment includes an insertion section 2b, an imaging section 30, an acquisition section 110, a lumen structure calculation section 120, and a dimension estimation section .
  • the configuration of the endoscope system 1 is not limited to that shown in FIG. 1, and various modifications such as addition of other components are possible, the details of which will be described later.
  • FIG. 2 is a perspective view illustrating an example of the endoscope 2 of this embodiment.
  • the endoscope 2 has an operation section 2a, a flexible insertion section 2b, and a universal cable 2c including signal lines and the like.
  • the endoscope 2 is a tubular insertion device that inserts a tubular insertion portion 2b into a lumen.
  • a connector is provided at the tip of the universal cable 2c, and the endoscope 2 is detachably connected to a light source device 4 or the like, which will be described later with reference to FIG. 6, by the connector.
  • a light guide is inserted through the universal cable 2c, and the endoscope 2 emits illumination light from the light source device through the light guide from the distal end of the insertion portion 2b.
  • the operator inserts the endoscope 2 into the large intestine of the patient Pa, but the place where the endoscope 2 is inserted is not limited to the large intestine. Also, the operator is, for example, a doctor, and the doctor is, for example, an endoscopist.
  • the insertion portion 2b has a distal end portion 11, a bendable bending portion 12, and a flexible tube portion 13 from the distal end to the proximal end of the insertion portion 2b.
  • the insertion portion 2b is inserted into the lumen of the patient Pa who is a subject.
  • the proximal end of the distal end portion 11 is connected to the distal end of the bending portion 12
  • the proximal end of the bending portion 12 is connected to the distal end of the flexible tube portion 13 .
  • a distal end portion 11 of the insertion portion 2b is the distal end portion of the endoscope 2 and is a hard distal end rigid portion.
  • the bending portion 12 can be bent in a desired direction according to the operation of the bending operation member 14 provided on the operation portion 2a.
  • the bending operation member 14 includes, for example, a horizontal bending operation knob 14a and a vertical bending operation knob 14b.
  • the bending section 12 has a plurality of bending pieces connected along the longitudinal axis of the insertion section 2b. Therefore, the operator can observe the inside of the large intestine of the patient Pa by bending the bending section 12 in various directions while pushing the insertion section 2b into the lumen of the large intestine or pulling it out from the lumen.
  • the left/right bending operation knob 14a and the up/down bending operation knob 14b pull and loosen the operation wire inserted into the insertion portion 2b in order to bend the bending portion 12.
  • the bending operation member 14 further has a fixing knob 14c that fixes the position of the bending portion 12 that is bent.
  • the operation portion 2a is also provided with various operation buttons such as a release button and an air/water supply button.
  • the flexible tube portion 13 is flexible and bends according to external force.
  • the flexible tube portion 13 is a tubular member extending from the operation portion 2a.
  • a monocular imaging unit 30 is provided at the distal end portion 11 of the insertion portion 2b.
  • the monocular imaging unit 30 is an imaging device that has one imaging optical system and captures an image of a subject as an image without parallax. That is, instead of using two optical systems having parallax with each other, such as a stereo optical system, an image pickup apparatus forms a single image of a subject using a single optical system and captures the formed image using an image sensor. be.
  • the imaging unit 30 captures an image of the observation site in the large intestine illuminated by the illumination light from the light source device 4 .
  • the monocular imaging unit 30 is provided at the distal end portion 11 of the insertion portion 2b, and images the interior of the subject at a plurality of time points to obtain captured images at a plurality of time points.
  • the position where the imaging unit 30 is provided is not limited to the distal end portion 11 of the insertion portion 2b.
  • the imaging section 30 may be provided at a position closer to the base end side than the distal end portion 11 by guiding light from a subject.
  • the acquisition unit 110 acquires a captured image of the subject captured by the monocular imaging unit 30 provided in the insertion section 2b inserted into the lumen of the subject. Specifically, for example, an imaging signal obtained by the imaging unit 30 is transmitted to the image processing device 3 described later with reference to FIG. The captured image data obtained is transmitted to the acquisition unit 110 . It is transmitted to the acquisition unit 110 .
  • the acquisition unit 110 may include an image processing module and may be configured to perform image processing based on the imaging signal obtained by the imaging unit 30, and various modifications are possible.
  • the actual dimension determination information acquisition unit 112 is an interface that acquires actual dimension determination information.
  • the actual dimension determination information is information that determines the actual dimension of at least a portion of the lumen.
  • the actual size of at least a part of the lumen is the actual size in the real space in which the lumen, which is the object, exists, and is information based on data transmitted from a predetermined external sensor, for example.
  • the predetermined external sensor is, for example, the magnetic sensor 16 described later with reference to FIG. 6, but may be a position sensor or the like.
  • the actual size determination information acquisition unit 112 includes an image processing module and the like, and acquires the actual size determination information by performing processing for obtaining the actual size based on the captured image of the subject acquired by the imaging unit 30. may The details of the acquisition method of the actual dimension determination information will be described later.
  • the lumen structure calculation unit 120 calculates the three-dimensional structure of the lumen and three-dimensional structure dimension information based on the captured image and the actual dimension determination information transmitted from the acquisition unit 110 .
  • the three-dimensional structure of the lumen is a three-dimensional structure model of the lumen constructed in virtual space based on the captured two-dimensional lumen image.
  • the lumen structure calculation unit 120 forms a three-dimensional structure of the lumen based on the captured two-dimensional lumen image by a method described later. It is a dimension in the constructed virtual space and cannot be grasped as an actual dimension in the real space. Therefore, the lumen structure calculator 120 of the present embodiment further calculates three-dimensional structure dimension information based on the captured image and the actual dimension determination information.
  • the three-dimensional structural dimension information is information for determining the actual dimensions of at least part of the three-dimensional structure, in other words, the dimensions of at least part of the three-dimensional structure in the virtual space are determined using the actual dimension determination information. This is information converted into actual dimensions.
  • the aforementioned actual dimension determination information is information that associates dimensions in the virtual space with actual dimensions in the real space, that is, information for converting the dimensions in the virtual space into actual dimensions in the real space. be.
  • the actual size determination information may be information that allows the actual size of the specific portion 200 to be described later to be grasped, but may be information that allows the actual size of an area wider than the area including the specific portion 200 to be grasped.
  • the specific site 200 is, for example, a lesion such as cancer or a polyp, but is not limited to a lesion as long as it is a site in the lumen that the operator wants to observe or want to know the actual size of.
  • the dimension estimation unit 130 outputs specific part dimension information, which is the actual dimension of the specific part 200 in the three-dimensional structure, based on the three-dimensional structure dimension information. For example, the dimension estimator 130 outputs the dimension of the specific site to the monitor 150 based on the three-dimensional structure dimension information transmitted from the lumen structure calculator 120 .
  • the dimension estimation unit 130 can be implemented by a display processor that displays various images on the monitor 150 or a display module that operates on the display processor.
  • Each part of the lumen structure calculation system 100 is configured with the following hardware.
  • Each section of the lumen structure calculation system 100 specifically includes an acquisition section 110 , an actual dimension determination information acquisition section 112 , a lumen structure calculation section 120 and a dimension estimation section 130 .
  • each section of the lumen structure calculation system 100 may include a specific site setting section 140 described later with reference to FIG. 4, or may include a feature point extraction section 122 and a three-dimensional position calculation section 124 described later with reference to FIG.
  • the hardware may include circuitry for processing digital signals and/or circuitry for processing analog signals.
  • the hardware may consist of one or more circuit devices or one or more circuit elements mounted on a circuit board.
  • the one or more circuit devices are, for example, ICs (Integrated Circuits), FPGAs (field-programmable gate arrays), or the like.
  • the one or more circuit elements are, for example, resistors, capacitors, and the like.
  • Luminal structure calculation system 100 includes a memory that stores information and a processor that operates based on the information stored in the memory.
  • the information is, for example, programs and various data.
  • a processor includes hardware.
  • Various processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a DSP (Digital Signal Processor) can be used as the processor.
  • the memory may be a semiconductor memory such as SRAM (Static Random Access Memory) or DRAM (Dynamic Random Access Memory), a register, or a magnetic storage device such as HDD (Hard Disk Drive).
  • it may be an optical storage device such as an optical disc device.
  • the memory stores computer-readable instructions, and when the instructions are executed by the processor, some or all of the functions of the components of the luminal structure calculation system 100 are realized as processes. become.
  • the instruction here may be an instruction set that constitutes a program, or an instruction that instructs a hardware circuit of a processor to perform an operation.
  • all or part of each part of the lumen structure calculation system 100 can be realized by cloud computing, and each process described later can be performed on cloud computing.
  • each part of the lumen structure calculation system 100 of this embodiment may be implemented as a module of a program that runs on a processor.
  • the acquisition unit 110 is implemented as an image acquisition module.
  • the lumen structure calculation unit 120 is realized as an acquisition module for information required for calculation of the lumen structure and a calculation module that performs calculations based on the information.
  • the dimension estimation unit 130 is implemented as a display processing module.
  • the program that implements the processing performed by each unit of the lumen structure calculation system 100 of this embodiment can be stored in, for example, an information storage device that is a computer-readable medium.
  • the information storage device can be implemented by, for example, an optical disc, memory card, HDD, semiconductor memory, or the like.
  • a semiconductor memory is, for example, a ROM.
  • the lumen structure calculation system 100 performs various processes of this embodiment based on programs stored in the information storage device. That is, the information storage device stores programs for causing a computer to function as each part of the lumen structure calculation system 100 .
  • a computer is a device that includes an input device, a processing unit, a storage unit, and an output unit.
  • the program according to the present embodiment is a program for causing a computer to execute each step described later with reference to FIG. 9 and the like.
  • FIG. 3 is a display example of the monitor 150 when the endoscope system 1 of this embodiment is applied.
  • the operator uses the endoscope system 1 to perform an endoscopic examination on the patient Pa lying supine on the bed, and the image captured by the endoscope 2 is displayed on the monitor 150.
  • the monitor 150 displays a screen including a lumen image captured by the imaging section 30 provided in the insertion section 2b.
  • the imaging unit 30 is monocular, the operator can only perceive the lumen image as a two-dimensional image. Furthermore, in the lumen image, objects that are closer look larger, and objects that are farther away look smaller.
  • the size of the specific part 200 determined by the operator based on the impression of viewing the monitor 150 and the actual size of the specific part 200 may differ greatly.
  • the actual size of the specific portion 200 can be measured, so it is possible to display a screen showing the actual size information of the specific portion 200, as indicated by A2, for example.
  • the operator and the patient Pa may be allowed to see the screen of the monitor 150 together. Thereby, the operator and the patient Pa can share detailed information about the specific region 200 with each other.
  • one type of screen may be displayed on one monitor 150 and switched for each content, or a plurality of monitors 150 may be provided and displayed separately for each content. is possible.
  • the endoscope system 1 of the present embodiment includes the insertion section 2b, the imaging section 30, the actual dimension determination information acquisition section 112, the lumen structure calculation section 120, and the dimension estimation section 130.
  • the insertion portion 2b is inserted into a lumen that is a subject.
  • the imaging unit 30 is monocular, is provided in the insertion unit 2b, and acquires a captured image of a subject.
  • the actual dimension determination information acquisition unit 112 acquires actual dimension determination information that is information for determining the actual dimension of at least part of the lumen.
  • the lumen structure calculation unit 120 calculates the three-dimensional structure of the lumen and three-dimensional structural dimension information that is information for determining the actual dimension of at least a part of the three-dimensional structure. , is calculated.
  • the dimension estimation unit 130 outputs specific part dimension information, which is the actual dimensions of the specific part 200 in the three-dimensional structure, based on the three-dimensional structure dimension information. By doing so, the size of the specific region 200 can be measured using an endoscope having a conventional monocular imaging system. Since the imaging unit 30 of the endoscope 2 is generally monocular, it can capture only a two-dimensional image of the target observation site.
  • the imaging unit 30 of a compound eye type increases the outer diameter, so that it can be used only for extremely limited applications. Therefore, an endoscope system that uses a monocular optical system and acquires three-dimensional information of an observation site has not been proposed so far.
  • the endoscope system 1 capable of measuring the size of the specific site 200 can be used for a wider range of applications.
  • the burden on doctors can be reduced.
  • the method of the present embodiment may be implemented as the lumen structure calculation system 100. That is, the lumen structure calculation system 100 of this embodiment includes an acquisition unit 110, a lumen structure calculation unit 120, and a dimension estimation unit .
  • the acquisition unit 110 acquires a captured image of the subject obtained by the monocular imaging unit 30 provided in the insertion unit 2b inserted into the lumen serving as the subject, and information for determining the actual size of at least part of the lumen. and the actual dimension determination information.
  • the lumen structure calculation unit 120 calculates the three-dimensional structure of the lumen and three-dimensional structural dimension information that is information for determining the actual dimension of at least a part of the three-dimensional structure.
  • the dimension estimation unit 130 outputs specific part dimension information, which is the actual dimensions of the specific part 200 in the three-dimensional structure, based on the three-dimensional structure dimension information. By doing so, an effect similar to that described above can be obtained.
  • the method of the present embodiment may be implemented as a method of creating lumen structure information. That is, the method of creating lumen structure information according to the present embodiment includes obtaining a captured image of a subject obtained by the monocular imaging unit 30 provided in the insertion section 2b inserted into the lumen of the subject. . Further, the method of creating lumen structure information of the present embodiment includes obtaining actual dimension determination information, which is information for determining the actual dimension of at least part of the lumen. In addition, the lumen structure information creation method of the present embodiment uses information for determining the three-dimensional structure of the lumen and the actual dimensions of at least a part of the three-dimensional structure based on the captured image and the actual dimension determination information.
  • the method of creating lumen structure information of this embodiment includes outputting specific portion dimension information, which is the actual size of the specific portion 200 in the three-dimensional structure, based on the three-dimensional structure dimension information. By doing so, an effect similar to that described above can be obtained.
  • a specific part structure 200A which is a three-dimensional structural model of the specific part 200, may be further output to the monitor 150. That is, the dimension estimation unit 130 performs processing for outputting the specific part structure 200A based on the three-dimensional structure of the lumen and the specific part dimension information. That is, in the endoscope system 1 of the present embodiment, the dimension estimating section 130 outputs the specific region dimension information and the information related to the three-dimensional structure of the specific region in association with each other. By doing so, the shape and size of the specific part 200 can be grasped, so that the user can grasp the details of the specific part 200 more accurately.
  • the user here is the operator, but may include the patient Pa. For example, as shown in FIG. 3, both the operator who operates the endoscope 2 and the patient Pa on the bed see the size information of the specific region 200 displayed on the monitor 150, thereby identifying the operator and the patient Pa. Accurate recognition matching can be performed for the part 200 .
  • the actual dimension determination information is enough to grasp the actual dimension of the specific part 200.
  • the actual dimension determination information is used to determine the entire three-dimensional structure of the lumen portion obtained by the imaging unit 30.
  • the dimensions may be known. That is, the lumen structure calculator 120 of the endoscope system 1 of the present embodiment calculates three-dimensional structure information in which actual dimensions are set based on the actual dimension determination information.
  • the situation regarding the specific portion 200 can be grasped in more detail. For example, since the size of the lesion, which is the specific site 200, can be compared with the size of the observed lumen portion, the operator can more accurately grasp the severity of the lesion.
  • the dimension estimating unit 130 extracts a predetermined region including the specific part structure 200A from the three-dimensional structure of the lumen, and outputs the predetermined region and the specific part dimension information to the monitor 150.
  • the displays shown in A2 and A3 in FIG. 3 can be realized.
  • the configuration of the endoscope system 1 of this embodiment is not limited to that shown in FIG.
  • the endoscope system 1 of this embodiment may further include a specific site setting section 140 as shown in FIG. That is, the specific part setting section 140 of the endoscope system 1 of this embodiment sets the specific part 200 based on the captured image transmitted from the acquisition section 110 .
  • the specific part setting unit 140 can be realized by a processor or an image processing module similar to the acquisition unit 110, the actual size determination information acquisition unit 112, the lumen structure calculation unit 120, and the size estimation unit .
  • FIG. 5 is a display example of the monitor 150 for explaining the specific part setting unit 140.
  • FIG. 5 assume that the operator performs an endoscopy on the patient Pa and finds a suspected lesion from the captured image. The operator makes a selection to set the range of the specific part 200 on the screen indicated by B1 on the monitor 150 . Specifically, for example, the operator selects whether to set the specific region 200 in the manual mode or to set the specific region 200 in the automatic mode. That is, in the endoscope system 1 of the present embodiment, the specific part setting section 140 has a first setting mode and a second setting mode in which the method of setting the specific part 200 is different from that in the first setting mode.
  • the operator selects one setting mode from a plurality of setting modes in which the setting methods of the specific part 200 are different from each other.
  • the specific site setting section 140 can select from a plurality of setting modes. By doing so, the specific portion 200 can be appropriately set. It should be noted that there may be a plurality of types of manual mode and automatic mode.
  • the specific part range display Ex surrounding the specific part 200 is displayed, for example, as indicated by B3.
  • the specific part setting unit 140 generates information specifying the range of the lesion, which is the specific part 200, and transmits the information to the dimension estimating unit 130.
  • the dimension estimating unit 130 displays the result on the monitor 150, so that B3 The display shown can be realized. That is, in the endoscope system 1 of the present embodiment, the specific part setting unit 140 presents the specific part on the captured image so that the user can visually recognize it.
  • the user here is, for example, an operator. By doing so, the boundary between the specific portion 200 and the portion other than the specific portion 200 is clarified, so the size of the specific portion 200 can be clarified.
  • the setting of the specific part 200 in the manual mode is performed, for example, by displaying the specific part range display Ex by the operator operating an input unit (not shown). That is, in the manual mode, each operator empirically judges the boundary between the specific site 200 and the area other than the specific site 200 based on the color, brightness, smoothness, shape, etc. of the observed lumen. , the specific part range display Ex is set.
  • the setting of the specific part 200 in the automatic mode for example, the specific part 200 and the specific part 200 by inference processing based on instructions from a learned model including a program in which an inference algorithm is described and parameters used in the inference algorithm. Boundaries between other than are determined.
  • the specific part setting unit 140 can automatically generate the information of the specific part range display Ex, and the dimension estimating unit 130 can automatically display the specific part range display Ex on the monitor 150 . That is, the specific part setting unit 140 includes a memory (not shown) in which the learned model is stored, and when the operator selects the automatic mode, the learned model is read from the memory.
  • a learned model is generated by a learning device (not shown) that exists outside the endoscope system 1 , but the learning device may be included in the endoscope system 1 .
  • the learned model is updated by, for example, inputting the captured image including the specific part 200 and the data of the specific part range display Ex determined in the manual mode to the learning device for each case.
  • a neural network can be adopted as an inference algorithm.
  • a weighting factor of the connection between nodes in the neural network is a parameter.
  • a neural network consists of an input layer that receives image data, an intermediate layer that performs arithmetic processing on the data input through the input layer, and an output layer that outputs recognition results based on the operation results output from the intermediate layer.
  • a convolutional neural network (CNN) is suitable as a neural network used for image recognition processing, but other neural network techniques may be employed.
  • the inference algorithm is not limited to neural networks, and various machine learning techniques used for image recognition can be adopted. Since these techniques are publicly known, the description thereof will be omitted.
  • the specific part setting unit 140 has a discriminator that automatically sets the specific part 200 .
  • the range of the specific part 200 is automatically set without depending on the operator's judgment, so that the setting error of the specific part range display Ex can be reduced.
  • the burden on the operator can be reduced.
  • the plurality of color information are separated into first color information and second color information different from the first color information, and an inference algorithm is used.
  • an inference algorithm may be used for the parameters of More specifically, for example, when it is known that the color of the lumen is close to red and the lesion that is the specific part 200 is a color close to blue, the area of the specific part 200 is determined using blue as the first color information. Used as parameters for inference. Similarly, red is used as second color information as a parameter for inferring regions other than the specific portion 200 .
  • the captured image can be separated into a plurality of pieces of color information, and the specific part setting section 140 uses the first color information included in the plurality of pieces of color information. , to set a specific part.
  • the boundary between the specific part 200 and the part other than the specific part 200 can be inferred more accurately, so the specific part range display Ex in the automatic mode can be displayed more accurately.
  • the specific part range display Ex when the specific part range display Ex is displayed, as shown in B4, it is displayed that the range of the specific part 200 has been set, and the operator confirms whether the specific part range display Ex is properly displayed. to request confirmation. For example, when the operator determines that the specific part range display Ex is appropriately displayed, the operator performs an input operation to that effect. Further, when the specific part range display Ex is not properly displayed, the operator can select to set the range of the specific part 200 again.
  • the case where the specific part range display Ex is not properly displayed is, for example, when the area indicated by the specific part range display Ex is displayed at a position significantly different from the area of the specific part 200 determined on the monitor 150 by the operator. and so on.
  • the operator can set the range of the specific part 200 again in another setting mode for the same image.
  • the specific part setting unit 140 performs the second setting for the same captured image as the captured image in which the specific part 200 is set in the first setting mode.
  • the setting of the specific part 200 can be redone in the mode.
  • the operator can also select to set the range of the specific part 200 again using another image. This is because, if the aspect of the display of the specific part 200 changes by performing imaging again, the setting result of the specific part 200 in the automatic mode may change.
  • the specific part setting unit 140 sets the specific part 200 to the second captured image different from the first captured image.
  • Settings can be redone.
  • the second captured image is a captured image in which the same specific site 200 as the specific site 200 captured in the first captured image is captured.
  • the specific part setting section 140 can redo the setting of the specific part 200 in a different setting mode for the same image or in a different image. By doing so, the range of the specific part 200 can be set more appropriately.
  • the configuration of the endoscope system 1 of this embodiment is not limited to the above.
  • a configuration including the magnetic sensor 16 and the magnetic field generator 7 may be employed.
  • the image processing device 3 is a video processor that performs predetermined image processing on the received imaging signal to generate a captured image.
  • a video signal of the generated captured image is output from the image processing device 3 to the monitor 150 , and the live captured image is displayed on the monitor 150 .
  • the operator can observe the inside of the large intestine of the patient Pa when the distal end portion 11 of the insertion portion 2b is inserted through the anus of the patient Pa.
  • a magnetic sensor 16 is arranged at the distal end portion 11 of the insertion portion 2b.
  • the magnetic sensor 16 is a detection device that is arranged near the imaging section 30 of the distal end portion 11 and detects the position and orientation of the viewpoint of the imaging section 30 .
  • the magnetic sensor 16 has two coils 16a and 16b, for example, as shown in FIG. Two central axes of the two cylindrical coils 16a and 16b are orthogonal to each other. Therefore, the magnetic sensor 16 is a 6-axis sensor and detects the position coordinates and orientation of the distal end portion 11 . Orientation here refers to Euler angles.
  • the magnetic sensor 16 is not limited to the example shown in FIG. 7, and modifications such as changing the combination and arrangement of the coils 16a and 16b are possible.
  • the performance and the number of detection axes may be limited, but the angle at which the two coils 16a and 16b intersect may be changed.
  • the magnetic sensor 16 may be composed of one coil 16a.
  • a signal line 2 e of the magnetic sensor 16 extends from the endoscope 2 and is connected to the lumen structure detection device 5 .
  • the magnetic field generator 7 generates a predetermined magnetic field
  • the magnetic sensor 16 detects the magnetic field generated by the magnetic field generator 7 .
  • the magnetic field generator 7 is connected to the lumen structure detector 5 via a signal line 7a.
  • a detection signal of the magnetic field is supplied from the endoscope 2 to the lumen structure detection device 5 via the signal line 2e.
  • a magnetic field generating element is provided at the distal end portion 11 instead of the magnetic sensor 16, and a magnetic sensor 16 is provided outside the patient Pa instead of the magnetic field generating device 7 to detect the position and posture of the distal end portion 11. You may do so.
  • the magnetic sensor 16 detects the position and orientation of the distal end portion 11, in other words, the position and orientation of the viewpoint of the captured image acquired by the imaging section 30 in real time.
  • the light source device 4 is a light source device capable of emitting normal light for the normal light observation mode.
  • the light source device 4 has normal light for the normal light observation mode and special light for the special light observation mode. and are selectively emitted.
  • the light source device 4 emits either normal light or special light as illumination light in accordance with the state of a changeover switch provided in the image processing device 3 for switching observation modes.
  • the lumen structure detection device 5 includes a processor 51 , a storage device 52 , an interface 53 , an image acquisition section 54 , a position/orientation detection section 55 and a drive circuit 56 . Each part of the lumen structure detection device 5 is connected to each other by a bus 58 .
  • the processor 51 is a control unit that has a CPU and a memory and controls the processing of each unit within the lumen structure detection device 5 .
  • the memory is a storage unit including ROM, RAM, and the like. Various processing programs executed by the CPU and various data are stored in the ROM. The CPU can read and execute various programs stored in the ROM and storage device 52 .
  • the storage device 52 stores a lumen structure calculation program.
  • the lumen structure calculation program is a software program for calculating lumen structure information from the position and orientation information of the distal end portion 11 and the captured image.
  • the CPU reads out and executes the lumen structure calculation program, so that the processor 51 calculates the lumen structure based on the captured image obtained by the imaging unit 30 and the three-dimensional arrangement of the distal end portion 11 detected by the magnetic sensor 16. constitutes a lumen structure calculation unit that calculates the three-dimensional structure of
  • the interface 53 outputs lumen structure information calculated by the processor 51 to the lumen structure calculation system 100 .
  • the interface 53 is a communication interface that communicates with the lumen structure calculation system 100, for example.
  • the image capturing unit 54 is a processing unit that captures captured images obtained by the image processing device 3 at regular intervals. For example, from the endoscope 2, 30 captured images are acquired from the image processing device 3 in one second, which is the same as the frame rate. Here, the image capturing unit 54 captures 30 captured images per second, but the captured images may be captured at a cycle longer than the frame rate. For example, the image capturing unit 54 may capture three captured images per second.
  • the position/orientation detection unit 55 controls the drive circuit 56 that drives the magnetic field generator 7 to cause the magnetic field generator 7 to generate a predetermined magnetic field.
  • the position/orientation detection unit 55 detects the magnetic field with the magnetic sensor 16, and from the detection signal of the detected magnetic field, the position coordinates (x, y, z) and the orientation (vx, vy, vz) of the imaging unit 30. Generate data. Orientation refers to Euler angles. That is, the position/orientation detection unit 55 is a detection device that detects the position and orientation of the imaging unit 30 based on the detection signal from the magnetic sensor 16 . More specifically, the position/orientation detection unit 25 detects three-dimensional arrangement time change information, which is information on changes in the three-dimensional arrangement over time. Therefore, the position/orientation detection unit 25 acquires three-dimensional arrangement information of the insertion portion 2b at a plurality of times.
  • FIG. 8 is a block diagram showing another configuration example of the endoscope system 1.
  • a lumen structure calculation unit 120 includes a feature point extraction unit 122 that extracts a plurality of feature points F in each captured image, and A three-dimensional position calculator 124 for calculating the position of each feature point F in the three-dimensional space based on this.
  • the feature point extraction unit 122 and the three-dimensional position calculation unit 124 can be realized by a processor equivalent to the processor 51 in FIG. 6 and a program module operating on the processor 51 . 8, illustration of the image processing device 3, the light source device 4, the magnetic field generation device 7, etc. is omitted.
  • FIG. 9 Although the following description is performed by each unit of the endoscope system 1 shown in FIG. 6, it can also be realized by the endoscope system 1 shown in FIG.
  • each processing of the flowcharts of FIGS. 9 and 11 can be implemented by the processor 51 in the following description, but the lumen structure calculation unit 120, the feature point extraction unit 122, the three-dimensional position calculation unit 124, etc. are configured. It can also be realized by the processor performing it appropriately.
  • FIG. 9 is a flow chart showing an example of the flow of lumen structure calculation processing.
  • the operator places the distal end portion 11 of the insertion portion 2b at a predetermined position and performs a predetermined operation on an input device (not shown). For example, when the lumen is the large intestine as shown in FIG. 10, the predetermined position is the anus indicated by C1.
  • the processor 51 sets the position and orientation data from the position and orientation detection unit 55 as the reference position and reference orientation of the distal end portion 11 when calculating the lumen structure (step S1).
  • the operator sets the reference position and the reference orientation of the distal end portion 11 at a predetermined position in the three-dimensional space as initial values while the distal end portion 11 is applied to a predetermined position.
  • the lumen structure calculated by the following processing is calculated based on the reference position and reference posture set here.
  • the specific position is, for example, the deepest part of the large intestine indicated by C2 in FIG. From the state where the distal end portion 11 of the insertion portion 2b is at the specific position indicated by C2, air is supplied to expand the inside of the large intestine, and the operator pulls the insertion portion 2b to move it toward the predetermined position indicated by C1.
  • the inner wall of the large intestine is observed by bending the bending portion 12 in various directions while stopping the withdrawal of the insertion portion 2b in the middle.
  • the lumen structure of the large intestine is calculated while the operator observes the inner wall of the large intestine.
  • the image capturing unit 54 acquires captured images at predetermined intervals ⁇ t from captured images supplied from the image processing device 3 every 1/30 second (step S2).
  • the period ⁇ t is, for example, 0.5 seconds.
  • the CPU acquires the position and orientation information of the distal end portion 11 output from the position and orientation detection section 55 when the captured image was acquired (step S3).
  • the processor 51 calculates positional information in a three-dimensional space, such as a plurality of feature points F, in one captured image acquired in step S2 and one or more captured images acquired before that (step S4). .
  • a set of positional information such as a plurality of calculated feature points F becomes information on the lumen structure.
  • the position information of each feature point F may be calculated from image information using methods such as SLAM (Simultaneous Localization and Mapping) and SfM (Structure from Motion), or may be calculated using the principle of triangulation. can be calculated by A method of calculating the position of each feature point F will be described later.
  • step S4 when the first captured image is acquired, there is no previously acquired captured image, so the process of step S4 is not executed until a predetermined number of captured images are acquired.
  • the processor 51 creates or updates lumen structure information by adding position information such as the calculated plurality of feature points F (step S5).
  • the set of one or more feature points F in the region observed by the endoscope 2 constitutes the lumen structure information created in step S5.
  • the lumen structure information is 3D data.
  • FIG. 10 represents an image of lumen structure information viewed from a given viewpoint. For example, when displaying lumen structure information, the user can confirm the structure of the lumen when viewed from a desired direction of 360 degrees by inputting an instruction to change the viewpoint position.
  • FIG. 10 illustrates the lumen structure information that takes into consideration even the unevenness of the lumen, but the lumen structure information may be more simplified information.
  • lumen structure information may be a cylindrical model.
  • the lumen it is possible to reduce the processing load.
  • a sensor such as the magnetic sensor 16
  • the effect of reducing the amount of calculation by making the shape of the lumen cylindrical is large.
  • a method of simplification it is assumed that only straight lumens without bends or simple bends are assumed, and structural models that differ only in size such as length and diameter for each part of the standard lumen structure are assumed. You can
  • the interface 53 of the lumen structure detection device 5 outputs the generated lumen structure information to the lumen structure calculation system 100 (step S6). Further, in step S6, the interface 53 may perform control to display the lumen structure information on the monitor 150.
  • the processor 51 determines whether or not the insertion portion 2b has been removed from the patient (step S7). For example, when the user withdraws the insertion portion 2b, the user performs user input indicating the end of observation using an input device (not shown). The processor 51 makes the determination shown in S7 based on the user input. If the removal has not been performed (No in step S7), the process returns to step S2.
  • the lumen structure calculation unit 120 calculates the three-dimensional structure of the lumen from the position of each feature point F in the calculated three-dimensional space. By doing so, it is possible to generate a three-dimensional structure based on the captured image.
  • the processor 51 may use methods such as SLAM and SfM to calculate the positions of feature points F on a plurality of consecutive images.
  • the generation of lumen structure information it is possible to apply bundle adjustment that optimizes intrinsic parameters, extrinsic parameters and world coordinate point clouds from images using the nonlinear least squares method. For example, using each estimated parameter, the world coordinate points of the plurality of extracted feature points F are subjected to perspective projection transformation, and each parameter and each world coordinate point group are obtained so that the reprojection error is minimized. .
  • the extrinsic parameters for tip 11 are calculated by solving a 5-point and 8-point algorithm.
  • the position of the feature point F is calculated according to the position of the tip 11 and the triangulation method.
  • the error E between the coordinates of the 3D point projected onto the image plane and the feature point F due to the reprojection error is expressed by the following equation (1).
  • L is the number of feature points F on the K images
  • Psj is the coordinate position of the 3D point Pi estimated by triangulation and the parameters of the tip 11 on the image plane
  • Pi is , are the coordinate positions of the corresponding feature points F on the image.
  • the position coordinates of the tip 11 are calculated using the LM (Levenberg-Marquartdt) method so as to minimize the function of the error E in equation (1).
  • the lumen structure calculator 120 uses the second color information included in the plurality of color information and not including the first color information to calculate the three-dimensional structure. and three-dimensional structural dimension information. By doing so, a three-dimensional structure or the like is generated based on an image having a color close to that of the lumen to be observed, so that the accuracy of estimating the three-dimensional structure can be improved.
  • FIG. 11 is a flowchart of a method of calculating the position of each feature point F in the three-dimensional space by bundle adjustment.
  • the processor 51 sets the time t to t0 when the predetermined position is set as the initial position, and sets the count value n of the software counter to 0 (step S11).
  • the processor 51 acquires the captured image at time t0 and information on the position and orientation of the distal end portion 11 (step S12).
  • a captured image is obtained from the image processing device 3 .
  • Information on the position and orientation of the distal end portion 11 is obtained from the position and orientation detection section 55 .
  • the processor 51 determines the position and orientation of the distal end portion 11 at the initial position (step S13). For example, the predetermined position (x, y, z) is determined to be (0, 0, 0), and the orientation (vx, vy, vz) is determined to be (0, 1, 0). Steps S11 and S13 correspond to step S1 in FIG.
  • the processor 51 acquires the captured image at the time (t0+n ⁇ t) and information on the position and orientation of the distal end portion 11 (step S14). Steps S12 and S14 correspond to step S2 in FIG. Information on the position and orientation of the distal end portion 11 may be corrected. For example, using a Kalman filter, the path that the tip 11 has traveled in the past is corrected, and the past position of the tip 11 is corrected based on the corrected path.
  • the processor 51 extracts a plurality of feature points F in each captured image, and given the position and orientation of the tip 11 at k points in time, that is, the three-dimensional arrangement of the tip 11, the obtained
  • the positions of m feature points F included in the captured image are calculated by the bundle adjustment described above (step S15). Therefore, the process of extracting a plurality of feature points F in each endoscopic image in step S15 constitutes a feature point extraction unit that extracts a plurality of feature points F in each captured image.
  • step S15 feature points F that appear in common in captured images at a plurality of time points are extracted.
  • step S15 the position of each feature point F in the three-dimensional space is calculated based on the positions of the extracted plurality of feature points F in the captured image and the three-dimensional arrangement of the insertion portion 2b.
  • a three-dimensional position calculator for calculating a position in a dimensional space is constructed. More specifically, the feature point F position in the three-dimensional space is calculated. Then, the position of each feature point F in the three-dimensional space is determined by bundle adjustment.
  • the feature point extracting unit 122 extracts feature points commonly appearing in captured images at a plurality of time points.
  • the three-dimensional position calculation unit 124 calculates the three-dimensional arrangement information of the insertion portion 2b at a plurality of time points based on the output of the magnetic sensor 16, which is a position sensor for extracting at least part of information on the position and orientation of the imaging unit 30. to get
  • the three-dimensional position calculation unit 124 is based on the three-dimensional arrangement information of the insertion portion 2b at a plurality of time points and the positions on the captured images of the feature points F that are commonly displayed in the captured images at a plurality of time points. , the position of the feature point F in the three-dimensional space.
  • FIG. 12 is a schematic diagram for explaining the relationship between feature points F on a plurality of consecutively acquired captured images and the position and orientation of the distal end portion 11.
  • the white triangle Pw indicates the actual position and orientation of the tip 11
  • the black triangle Pb indicates the estimated position and orientation of the tip 11 .
  • the tip 11 has actually moved along the solid line.
  • the estimated tip 11 is moving along the dotted line. With the lapse of time, the position of the distal end portion 11 moves and the posture of the distal end portion 11 changes.
  • the white square pw indicates the actual position of the feature point F
  • the black square pb indicates the estimated, ie calculated position of the feature point F.
  • the feature point F is, for example, a portion that has a characteristic shape and color in the captured image and that can be easily identified or tracked.
  • the coordinates of a plurality of feature points F on the inner wall of the intestinal canal of the large intestine are obtained, and a three-dimensional model is obtained by a set of the obtained plurality of coordinates or by connecting these coordinates. is generated. That is, the three-dimensional structure of the lumen is determined from the calculated position of each feature point F in the three-dimensional space.
  • the information on the position and orientation of the tip 11 at each point in time includes information for six axes, so the information on the position and orientation of the tip 11 at k points in time includes 6k pieces of information. Since the position of each feature point F includes information for three axes, information on the positions of m feature points F includes 3m pieces of information. Therefore, when using methods such as SLAM and SfM, the number of parameters to be determined is (6k+3m).
  • the magnetic sensor 16 is provided at the distal end portion 11 of the endoscope 2, and the lumen structure detection device 5 detects the position and orientation information detected by the magnetic sensor 16.
  • a posture detection unit 55 may be included.
  • 6k parameters corresponding to the position and orientation of the tip 11 are known. Since the optimization calculation by the processor 51 is limited to the calculation of 3m parameters, the processing amount of the optimization calculation can be reduced. Therefore, it is possible to speed up the processing. In addition, since the reduction in the number of parameters suppresses the accumulation of detection errors, it is possible to suppress the deviation of the generated three-dimensional model structure.
  • the distal end portion 11 of the insertion portion 2b of the endoscope 2 is pressed against the inner wall of the lumen, is submerged in dirty washing water, or the captured image is blurred, an appropriate continuous captured image cannot be obtained.
  • Information on the position and orientation of the distal end portion 11 is obtained even if it is not possible to obtain the information. Therefore, even if consecutive captured images cannot be obtained, the possibility that 3m parameters can be calculated increases. As a result, the robustness of the computation of lumen structure is increased.
  • Step S16 corresponds to step S5 in FIG.
  • the processor 51 corrects the previously calculated position information of the feature point F (step S17).
  • the position information of the feature points F calculated in the past is calculated in the past by using the newly calculated position information, for example, by calculating the average value. Correct the location information that has been received. Note that the processing of step S17 may not be performed, and the position information of each feature point F calculated in the past may be updated with the newly calculated position information of the feature point F.
  • step S17 the processor 51 increments n by 1 (step S18) and determines whether a command to end the inspection has been input (step S19).
  • the command to end the examination is, for example, a predetermined command that the operator inputs to the input device after the insertion portion 2b is removed from the large intestine.
  • the command is input (YES in step S19)
  • the process ends.
  • step S19 When the command to end the inspection is not input (NO in step S19), the process proceeds to step S14.
  • the processor 51 acquires a captured image after the cycle ⁇ t from the last acquisition time of the captured image (step S14), and executes the processing after step S15.
  • lumen structure information is output.
  • the lumen structure information obtained by these methods requires the relative positional relationship between the feature points F, it is not possible to obtain information on absolute dimension values.
  • the method of calculating the lumen structure described with reference to FIGS. 9 to 12 can be further combined with the method of setting the specific part range display Ex described with reference to FIGS.
  • the range of the specific site 200 is set based on the captured image, and the characteristic points F are extracted by the lumen structure calculation process, so the feature points F within the range of the specific site 200 are also extracted. be.
  • the position of the feature point F inside the specific site 200 is also calculated.
  • the position of the specific part 200 is calculated by associating the extracted feature points F of the specific part 200 with the feature points F in the three-dimensional structure.
  • the endoscope system 1 of the present embodiment further includes the specific part setting unit 140 that extracts the specific part 200 from the captured image and extracts the feature point F from the captured image that shows the specific part 200,
  • the specific part setting unit 140 sets the position of the specific part 200 in the three-dimensional structure by associating the extracted feature points F with the feature points F in the three-dimensional structure.
  • FIG. 13 is a flowchart illustrating an example of processing for calculating three-dimensional structure dimension information.
  • the lumen structure calculation system 100 acquires a lumen image (step S21). Specifically, for example, the acquisition unit 110 acquires the captured image transmitted from the image processing device 3 . After that, lumen structure calculation system 100 generates a three-dimensional structure (step S22). Specifically, positional information in a three-dimensional space such as a plurality of feature points F is calculated using any of the methods described above with reference to FIGS. 9 to 12, and a three-dimensional structure of the lumen is generated.
  • the lumen structure calculation system 100 calibrates the actual dimensions (step S23). Specifically, for example, a comparative object whose dimension information is at least partly known in advance is arranged in the imaging range.
  • the comparative object here is, for example, a treatment instrument that is inserted into a lumen from the distal end portion 11 and used for observation, diagnosis, treatment, or the like, but it may also be a cap or the like that is attached to the distal end portion 11. , at least a part of which should be within the imaging field of view.
  • the O-ring 300 may be used as a comparison object.
  • the method of arranging the O-ring 300 is not limited to the example of FIG. 14, and for example, the O-ring 300 may be arranged in the vicinity of the specific portion 200 without surrounding the specific portion 200 . Also, the size of the O-ring 300 may be smaller than the size of the specific portion 200 .
  • the lumen image in step S21 described above includes the image of O-ring 300
  • the three-dimensional structure in step S22 includes the three-dimensional structure of O-ring 300.
  • the actual dimension determination information acquisition unit 112 acquires the known actual dimension of the O-ring 300 as the actual dimension determination information based on the captured image of the lumen
  • the lumen structure calculation unit 120 calculates the actual dimension determination information.
  • a process of calibrating the actual dimensions of the three-dimensional structure generated in step S22 is performed.
  • the lumen structure calculation system 100 may perform the processing of step S23 by the operator pressing a wire-shaped, knife-shaped, rod-shaped, or the like treatment tool against the inner wall of the lumen. This is because, as described above, the comparison object to be placed around the specific site 200 only needs to have known dimensions.
  • the actual size determination information acquisition unit of the endoscope system 1 of the present embodiment acquires the size of the comparison object in the captured image whose dimensions are known as the actual size determination information. . By doing so, the absolute dimension values of the three-dimensional structure can be grasped.
  • the luminal structure calculation system 100 determines whether or not it is necessary to construct a three-dimensional structure. If necessary (YES in step S24), the process returns to step S21. , distance information is calculated (step S25). For example, when the operator discovers a lesion that is the specific site 200, observation is continued until it is determined that the lesion can be imaged optimally, so the three-dimensional structure of the lumen continues to be constructed. Then, when the operator determines that the lesion can be optimally imaged, the specific part 200 is calculated by the method described above with reference to FIG.
  • the predetermined period is, for example, the period from the occurrence of the deformation to the occurrence of the next deformation of the large intestine, which is the object of imaging, which periodically deforms due to peristaltic motion, pendulum motion, segmental motion, or the like. This is because if the large intestine or the like is deformed before the processing of steps S21 to S23 is completed, an appropriate three-dimensional structure cannot be constructed.
  • the lumen structure calculation unit 120 calculates 3 Output dimensional structure and 3D structural dimension information. By doing so, the three-dimensional structure of the lumen can be appropriately formed. In addition, when the three-dimensional structure including absolute dimension values is obtained and then deformed, it is possible to follow the state of deformation of the observed object.
  • FIG. 15 is a flow chart explaining another processing example for calculating the three-dimensional structure dimension information.
  • the processing example of FIG. 15 is a processing example of obtaining a captured image and absolute dimension information and obtaining a three-dimensional structure including the absolute dimension.
  • the lumen structure calculation system 100 acquires a lumen image (step S31), as in step S21 of FIG. After that, the lumen structure calculation system 100 performs a process of determining whether or not it is time to acquire the detection result of the sensor. A detection result is acquired (step S33). Details of the processing in step S33 will be described later.
  • the lumen structure calculation system 100 calculates the distance between the feature points F (step S34 ). Then, the luminal structure calculation system 100 generates a three-dimensional structure by the same method as in step S22 of FIG. 13 (step S35).
  • the processing example of FIG. 15 differs from the processing example of FIG. 13 in that the generated three-dimensional structure includes absolute dimension information at the time of step S35.
  • the lumen structure calculation system 100 determines whether or not construction of the three-dimensional structure is necessary, and if necessary (YES in step S36), the process proceeds to step S31. Returning, if unnecessary (NO in step S36), distance information is calculated (step S37).
  • the sensor in step S33 is, for example, the magnetic sensor 16, which is a position sensor.
  • the lumen structure calculator 120 obtains information about the position and orientation of the distal end portion 11, which is the actual size determination information, based on the output information from the magnetic sensor 16, which is the position sensor. In other words, information about the position or orientation of the imaging unit 30 is obtained through the actual size determination information obtaining unit 112 .
  • the lumen structure calculation unit 120 incorporates information about the position or orientation of the imaging unit 30 into the feature points F extracted from the lumen image acquired in step S31. Generate a three-dimensional structure of the cavity.
  • the actual dimension determination information acquisition unit 112 acquires information related to the output of the magnetic sensor 16, which is a position sensor for extracting at least part of the information related to the position and orientation of the imaging unit 30, as the actual dimension determination information. do. By doing so, absolute dimensional information can be added to a three-dimensional structure that can only be obtained relatively.
  • the position and orientation of the distal end portion 11 may be detected using not only the magnetic sensor 16 but also a shape sensor and an insertion amount/torsion amount sensor.
  • the shape sensor is a fiber sensor that is a bending sensor that detects the amount of bending from the curvature of a specific portion using an optical fiber, for example.
  • the insertion amount/torsion amount sensor has a cylindrical shape with a hole through which the insertion portion 2b can be inserted. and an encoder for detecting the amount of rotation of the insertion portion 2b about its axis.
  • the sensor in step S33 may be, for example, a ranging sensor.
  • FIG. 16 is a perspective view of the distal end portion of the distal end portion 11 of the insertion portion 2b having the distance measuring sensor.
  • An observation window 41, two illumination windows 42, a forceps opening 43, and a TOF (Time Of Flight) sensor 60, which is a distance measuring sensor, are arranged on the distal end surface 11a1 of the distal end portion 11.
  • the TOF sensor 60 detects the distance image and measures the distance by measuring the flight time of light.
  • a TOF function is embedded in each pixel of the image sensor. Therefore, the TOF sensor 60 obtains distance information for each pixel.
  • the TOF sensor 60 is provided at the distal end portion 11 of the insertion portion 2b and detects the distance from the distal end portion 11 to the inner wall of the lumen. Accordingly, information on the distance from the imaging unit 30 to the subject can be obtained.
  • the distance information is, for example, distance distribution information, but may be distance information for one point.
  • the lumen structure calculation unit 120 obtains the information on the distance from the distal end portion 11 to the inner wall of the lumen to be imaged via the actual dimension determination information acquisition unit 112 as TOF determination information. Acquired from the sensor 60 .
  • the lumen structure calculation unit 120 incorporates information on the distance from the distal end portion 11 to the inner wall of the lumen into the feature points F extracted from the lumen image acquired in step S31, thereby calculating the actual dimension Generate a 3D structure of the lumen containing
  • the distance measurement sensor is not limited to the TOF sensor 60, and may be a sensor of another type such as LiDAR (Light Detection and Ranging/Laser Imaging Detection and Ranging).
  • the actual dimension determination information acquisition unit 112 of the endoscope system 1 of the present embodiment obtains information related to the output of the TOF sensor 60, which is a distance measurement unit that extracts information on the distance from the imaging unit 30 to the subject. is obtained as the actual dimension determination information.
  • the method of obtaining the distance distribution from the imaging unit 30 to the subject is not limited to the method using a sensor.
  • a distance distribution from 30 to the subject may be obtained.
  • the Shape From Shading method is a technique for obtaining a three-dimensional shape based on the shading on the surface of an object. By solving this, the three-dimensional shape can be calculated. A more detailed description is omitted because it is well known.
  • the method of this embodiment is not limited to the above, and various modifications are possible.
  • MB may be presented to the user.
  • the information between two points includes the X-direction, Y-direction, and Z-direction components between the two points, the length between the two points, the projection length between the two points, and the like.
  • the screen display indicated by E2 in FIG. 17 can be realized by the following method. For example, as shown in FIG. 18, it is assumed that feature points F forming a three-dimensional structure with known absolute dimension values are arranged.
  • the lumen structure calculation unit 120 extracts the feature point FA closest to the measurement point MA and the feature point FB closest to the measurement point MB, and based on the coordinate information of the feature point FA and the feature point FB, calculates the measurement points MA, Information such as MB coordinates and distance is obtained, and processing for transmitting the information to the dimension estimation unit 130 is performed.
  • the lumen structure calculator 120 may obtain the coordinates of the measurement points MA and MB and the information between the two points using the coordinate information of a plurality of feature points F positioned near the measurement points MA and MB. Then, the dimension estimation unit 130 performs processing for outputting screen data to the monitor 150 based on the information.
  • the endoscope system 1 may present a three-dimensional specific part structure 200A to the user while changing the direction of the viewpoint, as shown in G1 of FIG. Further, as indicated by G2, the major axis D1, minor axis D2, and height H of the three-dimensional specific site structure 200A may be presented to the user on the monitor 150. FIG. By doing so, the operator and the patient Pa who are users can appropriately understand the specific region 200 .
  • the specific part structure 200A is a three-dimensional structure, and the appearance may change depending on the viewpoint and direction, so if the size measurement is performed without specifying the line-of-sight direction, the size measurement results will vary. Therefore, the three-dimensional structure calculation unit of the endoscope system 1 of the present embodiment calculates a plane parallel to the inner wall of the lumen around the specific site 200, in other words, a plane perpendicular to the normal vector N shown in FIGS. Based on the object projected onto the surface, the major axis D1, minor axis D2, and height H of the specific site structure 200A are calculated.
  • the height H is the height based on the plane parallel to the inner wall, and is the length of the specific site structure 200A along the direction parallel to the normal vector N, as shown in FIG.
  • the major axis D1 and the minor axis D2 of the specific site structure 200A are determined.
  • dimension estimation section 130 outputs display data based on these pieces of information to monitor 150 .
  • the dimension estimating unit 130 of the endoscope system 1 of the present embodiment calculates the major diameter D1 and the minor diameter D2, which are the actual dimensions of the object projected onto a plane parallel to the lumen around the specific site 200. Output as specific part dimension information.
  • the dimension estimation unit 130 of the endoscope system 1 of the present embodiment outputs the height H, which is the actual dimension of the object in the direction perpendicular to the inner wall of the lumen around the specific part 200, as the specific part dimension information. do.
  • the specific part 200 is observed from the direction perpendicular to the normal vector N, it is difficult for the user to grasp the height H information.
  • Information on the height H of the specific portion 200 can also be known.
  • the endoscope system 1 of this embodiment can also grasp the actual dimension information of the distance LE from the predetermined opening to the specific site 200 .
  • the distance LE is the distance from the predetermined opening indicated by J to the center of the specific portion 200, as shown in FIG. 23, for example.
  • the predetermined opening is, for example, the anus in the case of colon observation.
  • the center here includes the approximate center. For example, it is assumed that the specific site 200 is a lesion and the operator is considering the optimum treatment among a plurality of treatments in order to remove the specific site 200 .
  • Multiple procedures include, for example, endoscopic resection, surgical resection, and the like.
  • the method of the present embodiment can grasp the actual dimension of the distance LE from the predetermined opening to the specific site 200, so that the operator can select an appropriate treatment from a plurality of treatments.
  • the operator can predict the post-treatment progress with higher accuracy.
  • Control unit 34 Storage unit 35 Focus control unit 51 Processor 52 Storage device 53 Interface 55 Position and orientation detection unit 56 Drive circuit 58 Bus 100 Lumen structure calculation system , 110... acquisition unit, 112... actual size determination information acquisition unit, 120... lumen structure calculation unit, 122... characteristic point extraction unit, 124... three-dimensional position calculation unit, 130... dimension estimation unit, 140... specific part setting unit , 150... monitor, 200... specific portion, 300... O-ring, D1... major axis, D2... minor axis, F, FA, FB... characteristic point, H... height, LE... distance, N... normal vector, MA, MB...Measurement point, Pa...Patient

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡システム(1)は、挿入部(2b)と、撮像部(30)と、実寸法決定情報取得部(112)と、内腔構造算出部(120)と、寸法推定部(130)と、を含む。挿入部(2b)は、被写体となる内腔に挿入される。撮像部は、単眼であり、挿入部に設けられ、被写体の撮像画像を取得する。実寸法決定情報取得部は、内腔の少なくとも一部に係る実寸法を決定する情報である実寸法決定情報を取得する。内腔構造算出部は、撮像画像と実寸法決定情報に基づいて、内腔の3次元構造と、3次元構造の少なくとも一部に係る実寸法を決定する情報である3次元構造寸法情報と、を算出する。寸法推定部は、3次元構造寸法情報に基づき、3次元構造における特定部位(200)の実寸法である特定部位寸法情報を出力する。

Description

内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法
 本発明は、内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法等に関する。
 従来、ポリープや癌等の病変のサイズを、治療の実施判断や治療方法の判断に用いられる。そのため、内視鏡を被検体の体内に挿入して検査を行う際に、発見した病変のサイズを把握できることが好ましい。特許文献1には、1対の対物レンズによる内視鏡画像を用いた画像処理により計測を行う計測内視鏡装置について開示されている。
特開平10-248806号公報
 しかし、内視鏡は体内への挿入するものであるため小型化が要求される。特許文献1のように複数の光学系を有する内視鏡は外径が大きく、極めて限られた用途にしか用いることができず、内視鏡は単眼式であることが一般的である。単眼式の内視鏡を用いると、近いものは大きく見え、遠いものは小さく見えるため、医師らの判断次第で、病変のサイズの測定誤差が大きくなる可能性がある。
 本開示の一態様は、被写体となる内腔に挿入される挿入部と、前記挿入部に設けられ、前記被写体の撮像画像を取得する単眼の撮像部と、前記内腔の少なくとも一部に係る実寸法決定情報を取得する実寸法決定情報取得部と、前記撮像画像と前記実寸法決定情報に基づいて、前記内腔の3次元構造と、前記3次元構造の少なくとも一部に係る寸法情報である3次元構造寸法情報と、を算出する内腔構造算出部と、前記3次元構造寸法情報に基づき、前記3次元構造における特定部位の寸法である特定部位寸法情報を出力する寸法推定部と、を含む内視鏡システムに関係する。
 本開示の他の態様は、被写体となる内腔に挿入される挿入部に設けられた単眼の撮像部によって取得された前記被写体の撮像画像と、前記内腔の少なくとも一部に係る実寸法を決定する情報である実寸法決定情報と、を取得する取得部と、前記撮像画像と前記実寸法決定情報に基づいて、前記内腔の3次元構造と、前記3次元構造の少なくとも一部に係る実寸法を決定する情報である3次元構造寸法情報とを算出する内腔構造算出部と、前記3次元構造寸法情報に基づき、前記3次元構造における特定部位の実寸法である特定部位寸法情報を出力する寸法推定部と、を含む内腔構造算出システムに関係する。
 本開示のさらに他の態様は、被写体となる内腔に挿入される挿入部に設けられた単眼の撮像部によって取得された前記被写体の撮像画像を取得することと、前記内腔の少なくとも一部に係る実寸法を決定する情報である実寸法決定情報を取得することと、前記撮像画像と前記実寸法決定情報に基づいて、前記内腔の3次元構造と、前記3次元構造の少なくとも一部に係る実寸法を決定する情報である3次元構造寸法情報とを算出することと、前記3次元構造寸法情報に基づき、前記3次元構造における特定部位の実寸法である特定部位寸法情報を出力することと、を含む内腔構造情報の作成方法に関係する。
内視鏡システムの構成例を説明するブロック図。 内視鏡の例を説明する斜視図。 本実施形態の手法を適用したモニタの表示例を示す図。 内視鏡システムの別の構成例を説明するブロック図。 特定部位範囲設定部を説明するモニタの表示例を示す図。 内視鏡システムの別の構成例を説明するブロック図。 磁気センサを説明する図。 内視鏡システムの別の構成例を説明するブロック図。 内腔構造情報の取得の処理例を説明するフローチャート。 管腔構造情報の例を説明する図。 管腔構造情報の取得の別の処理例を説明するフローチャート。 複数の特徴点と、先端部の位置姿勢の関係を説明する模式図。 3次元構造寸法情報を算出する処理例を説明するフローチャート。 比較対象物を説明するモニタの表示例を示す図。 3次元構造寸法情報を算出する別の処理例を説明するフローチャート。 TOFセンサを説明する図。 本実施形態の手法を適用したモニタの別の表示例を示す図。 計測点間の距離を算出する手法を説明する図。 本実施形態の手法を適用したモニタの別の表示例を示す図。 特定部位の寸法の測定方法を説明する図。 特定部位の寸法の測定方法を説明する別の図。 特定部位の寸法の測定方法を説明する別の図。 開口部から特定部位までの長さを測定する方法を説明する図。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。
 図1、図2、図3を用いて本実施形態の内視鏡システム1について説明する。図1は、本実施形態の内視鏡システム1の構成例を説明するブロック図である。内視鏡システム1は、挿入部2bと、内腔構造算出システム100を含む。挿入部2bは撮像部30を含む。内腔構造算出システム100は、取得部110と、内腔構造算出部120と、寸法推定部130を含む。取得部110は、実寸法決定情報取得部112を含む。つまり、本実施形態の内視鏡システム1は、挿入部2bと、撮像部30と、取得部110と、内腔構造算出部120と、寸法推定部130を含む。なお、内視鏡システム1の構成は図1に限定されず、他の構成要素を追加するなどの種々の変形実施が可能であり、詳細は後述する。
 図2は、本実施形態の内視鏡2の例を説明する斜視図である。内視鏡2は、操作部2aと、可撓性を有する挿入部2bと、信号線などを含むユニバーサルケーブル2cとを有する。内視鏡2は、管状の挿入部2bを内腔に挿入する管状挿入装置である。ユニバーサルケーブル2cの先端にはコネクタが設けられ、内視鏡2は、そのコネクタにより、図6で後述する光源装置4等に着脱可能に接続される。また、図示は省略するが、ユニバーサルケーブル2c内には、ライトガイドが挿通されており、内視鏡2は、当該光源装置からの照明光を、ライトガイドを通して挿入部2bの先端から出射する。なお、以降の説明は、患者Paの大腸内へ術者が内視鏡2を挿入する場合について例示するが、内視鏡2が挿入される場所は大腸に限定されない。また、術者は例えば医師であり、医師は例えば内視鏡医である。
 図2に示すように、挿入部2bは、挿入部2bの先端から基端に向かって、先端部11と、湾曲可能な湾曲部12と、可撓管部13とを有している。挿入部2bは、被写体となる患者Paの内腔に挿入される。先端部11の基端部は湾曲部12の先端に接続され、湾曲部12の基端部は可撓管部13の先端に接続されている。挿入部2bの先端部11は、内視鏡2の先端部であり、硬い先端硬質部である。
 湾曲部12は、操作部2aに設けられた湾曲操作部材14に対する操作に応じて、所望の方向に湾曲可能である。湾曲操作部材14は、例えば左右湾曲操作ノブ14a及び上下湾曲操作ノブ14bを含む。湾曲部12を湾曲させ、先端部11の位置と向きを変え、被検体内の観察部位を視野内に捉えると、照明光は観察部位に照射される。湾曲部12は、挿入部2bの長手軸方向に沿って連結された複数の湾曲駒を有している。よって、術者は、挿入部2bを大腸等の内腔に押し込みながら、あるいは内腔から引き抜きながら、湾曲部12を様々な方向に湾曲させることによって、患者Paの大腸内を観察できる。
 左右湾曲操作ノブ14a及び上下湾曲操作ノブ14bは、湾曲部12を湾曲するために、挿入部2b内に挿通された操作ワイヤを牽引及び弛緩させる。湾曲操作部材14は、さらに、湾曲した湾曲部12の位置を固定する固定ノブ14cを有している。なお、操作部2aには、湾曲操作部材14の他にも、レリーズボタン、送気送水ボタン等の各種操作ボタンも設けられている。
 可撓管部13は、可撓性を有しており、外力に応じて曲がる。可撓管部13は、操作部2aから延出されている管状部材である。
 また、図2には図示していないが、挿入部2bの先端部11には、単眼の撮像部30が設けられている。単眼の撮像部30は、すなわち結像光学系を1つ有し、被写体を、視差のない画像として撮像する撮像装置である。即ち、ステレオ光学系等のように互いに視差のある2つの光学系を用いるのではなく、1つの光学系によって被写体を1つの像に結像し、その結像を撮像素子によって撮像する撮像装置である。光源装置4の照明光により照明された大腸内の観察部位は、撮像部30により撮像される。すなわち、単眼の撮像部30は、挿入部2bの先端部11に設けられ、複数の時点において被検体内を撮像して複数の時点の撮像画像を取得する。なお撮像部30が設けられる位置は挿入部2bの先端部11に限定されない。例えば被写体からの光を導光することによって、先端部11よりも基端側の位置に撮像部30が設けられてもよい。
 取得部110は、被写体となる内腔に挿入される挿入部2bに設けられた単眼の撮像部30によって取得された被写体の撮像画像を取得する。具体的には、例えば撮像部30により得られた撮像信号が、ユニバーサルケーブル2c内の信号線を経由して、図6で後述する画像処理装置3に送信され、画像処理装置3によって画像処理された撮像画像のデータが、取得部110に送信される。取得部110に送信される。なお、取得部110は、画像処理モジュールを含み、撮像部30により得られた撮像信号に基づいて画像処理を行う構成にしてもよく、種々の変形実施が可能である。
 実寸法決定情報取得部112は、実寸法決定情報を取得するインターフェースである。実寸法決定情報は、内腔の少なくとも一部に係る実寸法を決定する情報である。内腔の少なくとも一部に係る実寸法とは、被写体である内腔が存在する実空間上における実寸法であり、例えば所定の外部センサから送信されたデータに基づく情報である。所定の外部センサとは、例えば図6で後述する磁気センサ16であるが、位置センサ等であってもよい。また、実寸法決定情報取得部112は、画像処理モジュール等を含み、撮像部30によって取得された被写体の撮像画像に基づいて、実寸法を求める処理を行うことで、実寸法決定情報を取得してもよい。実寸法決定情報の取得方法の詳細は後述する。
 内腔構造算出部120は、取得部110から送信された撮像画像と実寸法決定情報に基づいて、内腔の3次元構造と、3次元構造寸法情報と、を算出する。内腔の3次元構造とは撮像された2次元の内腔画像に基づいて、仮想空間内に構築された内腔の3次元構造モデルである。内腔構造算出部120は、後述する手法により、撮像された2次元の内腔画像に基づいて、内腔の3次元構造を形成するが、当該3次元構造の寸法は、3次元構造モデルが構築された仮想空間上における寸法であり、実空間上の実寸法として把握することはできない。そこで、本実施形態の内腔構造算出部120は、撮像画像と実寸法決定情報に基づく3次元構造寸法情報をさらに算出する。3次元構造寸法情報の具体的な算出の手法は後述する。3次元構造寸法情報は、3次元構造の少なくとも一部に係る実寸法を決定する情報であり、言い換えれば、仮想空間上における3次元構造の少なくとも一部に関する寸法を、実寸法決定情報を用いて実寸法に換算した情報である。つまり、前述の実寸法決定情報は、仮想空間上における寸法と、実空間上における実寸法とを対応付ける情報、即ち、仮想空間上における寸法を、実空間上における実寸法に換算するための情報である。なお、実寸法決定情報は、後述する特定部位200の実寸法が把握できる程度の情報であればよいが、特定部位200を含む領域より広い領域の実寸法が把握できる情報であってもよい。また、特定部位200は、例えば癌やポリープ等の病変であるが、内腔において、術者が観察の対象としたい部位や実寸法のサイズを知りたい部位であれば病変に限定されない。
 寸法推定部130は、3次元構造寸法情報に基づき、3次元構造における特定部位200の実寸法である特定部位寸法情報を出力する。例えば寸法推定部130は、内腔構造算出部120より送信された3次元構造寸法情報に基づいて、特定部位の寸法をモニタ150に出力する。寸法推定部130は、モニタ150に各種画像を表示する表示用プロセッサや、当該表示用プロセッサ上の動作する表示モジュールにより実現することができる。
 なお内腔構造算出システム100の各部は、下記のハードウェアにより構成される。内腔構造算出システム100の各部とは、具体的には取得部110、実寸法決定情報取得部112、内腔構造算出部120、寸法推定部130である。また、内腔構造算出システム100の各部は、図4で後述する特定部位設定部140を含んでもよいし、図8で後述する特徴点抽出部122や3次元位置算出部124を含んでもよい。ハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、ハードウェアは、回路基板に実装された1又は複数の回路装置や、1又は複数の回路素子で構成することができる。1又は複数の回路装置は例えばIC(Integrated Circuit)、FPGA(field-programmable gate array)等である。1又は複数の回路素子は例えば抵抗、キャパシター等である。
 また内腔構造算出システム100の各部のうち一部又は全部は、下記のプロセッサにより実現されてもよい。内腔構造算出システム100は、情報を記憶するメモリと、メモリに記憶された情報に基づいて動作するプロセッサと、を含む。情報は、例えばプログラムと各種のデータ等である。プロセッサは、ハードウェアを含む。プロセッサは、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。メモリは、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)などの半導体メモリであってもよいし、レジスタであってもよいし、HDD(Hard Disk Drive)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、内腔構造算出システム100の各部のうち一部又は全部の機能が処理として実現されることになる。ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。さらに、内腔構造算出システム100の各部の全部または一部をクラウドコンピューティングで実現し、後述する各処理をクラウドコンピューティング上で行うこともできる。
 また、本実施形態の内腔構造算出システム100の各部は、プロセッサ上で動作するプログラムのモジュールとして実現されてもよい。例えば、取得部110は、画像取得モジュールとして実現される。内腔構造算出部120は、内腔構造の算出に必要な情報の取得モジュールや、当該情報に基づく演算を行う演算モジュールとして実現される。寸法推定部130は、表示処理モジュールとして実現される。
 また、本実施形態の内腔構造算出システム100の各部が行う処理を実現するプログラムは、例えばコンピュータによって読み取り可能な媒体である情報記憶装置に格納できる。情報記憶装置は、例えば光ディスク、メモリカード、HDD、或いは半導体メモリなどによって実現できる。半導体メモリは例えばROMである。内腔構造算出システム100は、情報記憶装置に格納されるプログラムに基づいて本実施形態の種々の処理を行う。即ち情報記憶装置は、内腔構造算出システム100の各部としてコンピュータを機能させるためのプログラムを記憶する。コンピュータは、入力装置、処理部、記憶部、出力部を備える装置である。具体的には本実施形態に係るプログラムは、図9等を用いて後述する各ステップを、コンピュータに実行させるためのプログラムである。
 図3は、本実施形態の内視鏡システム1を適用した場合における、モニタ150の表示例である。術者は、内視鏡システム1を用いて、ベッドに仰向けで横になっている患者Paに対して内視鏡検査を行い、内視鏡2が撮像する画像がモニタ150に表示されている。A1に示すように、挿入部2bに設けられた撮像部30によって撮像された内腔画像を含む画面がモニタ150に表示される。前述の通り、撮像部30は単眼であるため、術者は当該内腔画像を、二次元の画像としてしかとらえることができない。さらに、当該内腔画像は近いものは大きく見え、遠いものは小さく見えることから、術者は特定部位200のサイズ正確に把握することが難しい。そのため、術者がモニタ150を見た印象に基づいて判断した特定部位200のサイズと、特定部位200の実際のサイズが大きく異なることが起こり得る。この点、本実施形態において、特定部位200の実寸法を計測することができるので、例えばA2に示すように、特定部位200の実寸法情報を示す画面を表示することが可能になる。
 なお、術者と患者Paが一緒にモニタ150の画面を見ることができるようにしてもよい。これにより、術者と患者Paは、互いに特定部位200についての詳細な情報を共有することができる。また、1つのモニタ150に1種類の画面を表示し、内容ごとに切り替えられるようにしてもよいし、複数のモニタ150を設けて、内容ごとに分けて表示してもよく、種々の変形実施が可能である。
 このように、本実施形態の内視鏡システム1は、挿入部2bと、撮像部30と、実寸法決定情報取得部112と、内腔構造算出部120と、寸法推定部130と、を含む。挿入部2bは、被写体となる内腔に挿入される。撮像部30は、単眼であり、挿入部2bに設けられ、被写体の撮像画像を取得する。実寸法決定情報取得部112は、内腔の少なくとも一部に係る実寸法を決定する情報である実寸法決定情報を取得する。内腔構造算出部120は、撮像画像と実寸法決定情報に基づいて、内腔の3次元構造と、3次元構造の少なくとも一部に係る実寸法を決定する情報である3次元構造寸法情報と、を算出する。寸法推定部130は、3次元構造寸法情報に基づき、3次元構造における特定部位200の実寸法である特定部位寸法情報を出力する。このようにすることで、従来の単眼の撮像系からなる内視鏡を用いて、特定部位200のサイズを計測することができる。一般に内視鏡2の撮像部30は単眼であるため、対象となる観察部位を二次元の画像としてしかとらえることができない。一方、撮像部30を複眼式にすることは、外径が大きくなることから、極めて限られた用途にしか用いることができないからである。そのため、単眼式の光学系を用いて、さらに観察部位の三次元情報を取得する内視鏡システムは、今まで提案されていなかった。その点、本実施形態の手法を適用することにより、特定部位200のサイズを計測できる内視鏡システム1を、より広い用途で使用することができる。また、特定部位200のサイズ計測において医師らの経験的な判断が不要なことや、処置後に病変を計測する必要が無いことから、医師の負担を軽減することができる。
 また、本実施形態の手法は、内腔構造算出システム100として実現してもよい。つまり、本実施形態の内腔構造算出システム100は、取得部110と、内腔構造算出部120と、寸法推定部130と、を含む。取得部110は、被写体となる内腔に挿入される挿入部2bに設けられた単眼の撮像部30によって取得された被写体の撮像画像と、内腔の少なくとも一部に係る実寸法を決定する情報である実寸法決定情報と、を取得する。内腔構造算出部120は、撮像画像と実寸法決定情報に基づいて、内腔の3次元構造と、3次元構造の少なくとも一部に係る実寸法を決定する情報である3次元構造寸法情報とを算出する。寸法推定部130は、3次元構造寸法情報に基づき、3次元構造における特定部位200の実寸法である特定部位寸法情報を出力する。このようにすることで、上記と同様の効果を得ることができる。
 また、本実施形態の手法は、内腔構造情報の作成方法として実現してもよい。つまり、本実施形態の内腔構造情報の作成方法は、被写体となる内腔に挿入される挿入部2bに設けられた単眼の撮像部30によって取得された被写体の撮像画像を取得することを含む。また、本実施形態の内腔構造情報の作成方法は、内腔の少なくとも一部に係る実寸法を決定する情報である実寸法決定情報を取得することを含む。また、本実施形態の内腔構造情報の作成方法は、撮像画像と実寸法決定情報に基づいて、内腔の3次元構造と、3次元構造の少なくとも一部に係る実寸法を決定する情報である3次元構造寸法情報とを算出することを含む。また、本実施形態の内腔構造情報の作成方法は、3次元構造寸法情報に基づき、3次元構造における特定部位200の実寸法である特定部位寸法情報を出力することを含む。このようにすることで、上記と同様の効果を得ることができる。
 また、図3のA3に示すように、特定部位200の3次元構造モデルである特定部位構造200Aを、モニタ150にさらに出力してもよい。つまり、寸法推定部130は、内腔の3次元構造と、特定部位寸法情報に基づいて、特定部位構造200Aを出力する処理を行う。つまり、本実施形態の内視鏡システム1において、寸法推定部130は、特定部位寸法情報と、特定部位の3次元構造に係る情報を関連づけて出力する。このようにすることで、特定部位200の形状とサイズを把握することができるので、ユーザは特定部位200の詳細をより正確に把握することができる。ここでのユーザは術者であるが、患者Paを含んでもよい。例えば図3に示すように、内視鏡2を操作する術者とベッド上の患者Paがともにモニタ150の表示された特定部位200のサイズの情報を見ることにより、術者と患者Paの特定部位200に対して正確に認識合わせをすることができる。
 なお前述では、実寸法決定情報は特定部位200の実寸法が把握できる程度の情報で足りる旨説明したが、実寸法決定情報によって、撮像部30によってされた内腔部分の3次元構造全体の実寸法が把握できてもよい。つまり、本実施形態の内視鏡システム1の内腔構造算出部120は、実寸法決定情報に基づいて、実寸法が設定された3次元構造情報を算出する。これにより、内腔全体の3次元構造の実寸法を把握することができるので、特定部位200に関する状況をより詳細に把握することができる。例えば、特定部位200である病変のサイズが、観察した内腔部分のサイズと比較することができるので、術者は当該病変の重度をより正確に把握することができる。なお、この場合、寸法推定部130は、内腔の3次元構造から、特定部位構造200Aを含む所定領域を抽出する処理を行い、当該所定領域と特定部位寸法情報をモニタ150に出力することで、図3のA2やA3に示した表示が実現できる。
 また、本実施形態の内視鏡システム1の構成は図1に限定されない。例えば、本実施形態の内視鏡システム1は、図4に示すように、特定部位設定部140をさらに含んでもよい。つまり、本実施形態の内視鏡システム1の特定部位設定部140は、取得部110から送信された撮像画像に基づき、特定部位200を設定する。特定部位設定部140は、取得部110、実寸法決定情報取得部112、内腔構造算出部120、寸法推定部130と同様プロセッサや画像処理モジュールにより実現できる。
 図5は、特定部位設定部140を説明するための、モニタ150の表示例である。例えば、術者は、患者Paに対する内視鏡検査を行い、撮像画像から病変と疑われる箇所を発見したとする。術者は、モニタ150におけるB1に示す画面上で、特定部位200の範囲を設定する選択を行う。具体的には、例えば術者は、手動モードにより特定部位200を設定するか、自動モードにより特定部位200を設定するかについての選択を行う。つまり、本実施形態の内視鏡システム1において、特定部位設定部140は、第1設定モードと、第1設定モードとは特定部位200の設定手法が異なる第2設定モードと、を有する。そして、術者は、特定部位200の設定手法が互いに異なる複数の設定モードから1つの設定モードを選択する。以上のように、本実施形態の内視鏡システム1において、特定部位設定部140は、複数の設定モードから選択可能である。このようにすることで、特定部位200を適切に設定することができる。なお、手動モード及び自動モードはそれぞれ複数種類あってもよい。
 例えばB2に示す画面に特定部位200が表示されている場合において、術者が自動モードを選択したとする。これにより、例えばB3に示すように、特定部位200の周囲を囲む特定部位範囲表示Exが表示される。例えば特定部位設定部140は、特定部位200である病変の範囲を特定した情報を生成し、寸法推定部130に送信し、寸法推定部130はその旨をモニタ150に表示することで、B3に示す表示が実現できる。つまり、本実施形態の内視鏡システム1において、特定部位設定部140は、撮像画像上の特定部位をユーザが視認可能に呈示する。ここでのユーザは、例えば術者である。このようにすることで、特定部位200と特定部位200以外の境界が明確になるので、特定部位200のサイズを明確にすることができる。
 手動モードによる特定部位200の設定は、例えば、術者が不図示の入力部を入力操作することによって、特定部位範囲表示Exを表示することにより、行われる。つまり、手動モードにおいて、個々の術者が、観察される内腔の色や明るさ、滑らかさ、形状等に基づいて、特定部位200と特定部位200以外との境界を経験的に判断することによって、特定部位範囲表示Exが設定される。一方、自動モードによる特定部位200の設定は、例えば、推論アルゴリズムが記述されたプログラムと当該推論アルゴリズムに用いられるパラメータを含む学習済モデルからの指示に基づく推論処理により、特定部位200と特定部位200以外との間の境界が判断される。それにより、特定部位設定部140は特定部位範囲表示Exの情報を自動で生成し、寸法推定部130によって特定部位範囲表示Exをモニタ150に自動で表示することを実現できる。つまり、特定部位設定部140は、不図示のメモリを含み、当該メモリには当該学習済モデルが記憶され、術者が自動モードを選択すると、当該メモリから当該学習済モデルが読み出される。
 学習済モデルは、内視鏡システム1の外部に存在する不図示の学習装置によって生成されるが、当該学習装置を内視鏡システム1に含んでもよい。学習段階では、各々の症例ごとに、特定部位200を含む撮像画像と、手動モードで決定した特定部位範囲表示Exのデータを学習装置に入力するなどにより、学習済モデルが更新される。
 また、推論アルゴリズムとしては、例えばニューラルネットワークを採用できる。ニューラルネットワークにおけるノード間接続の重み係数がパラメータである。ニューラルネットワークは、画像データが入力される入力層と、入力層を通じて入力されたデータに対し演算処理を行う中間層と、中間層から出力される演算結果に基づいて認識結果を出力する出力層と、を含む。画像認識処理に用いられるニューラルネットワークとして、畳み込みニューラルネットワーク(Convolutional Neural Network;CNN)が好適であるが、他のニューラルネットワーク技術を採用してもよい。また推論アルゴリズムはニューラルネットワークに限らず、画像認識に用いられる様々な機械学習技術を採用できる。なお、これらの技術は公知につき、説明は省略する。
 以上のことから、本実施形態の内視鏡システム1において、特定部位設定部140は、自動で、特定部位200を設定する識別器を有する。このようにすることで、術者の判断によらずに特定部位200の範囲を自動で設定するため、特定部位範囲表示Exの設定の誤差を小さくすることができる。また、術者の判断を要しないため、術者の負担を軽減することができる。
 また、本実施形態において、撮像画像が複数の色情報を含む場合、当該複数の色情報から、第1の色情報と、第1の色情報と異なる第2の色情報に分離し、推論アルゴリズムのパラメータに用いてもよい。より具体的には、例えば内腔の色が赤色に近く、特定部位200である病変が青色に近い色であることが既知である場合、青色を第1の色情報として特定部位200の領域を推論するパラメータとして用いる。同様に、赤色を第2の色情報として特定部位200以外の領域を推論するパラメータとして用いる。つまり、本実施形態の内視鏡システム1において、撮像画像は、複数の色情報に分離可能であり、特定部位設定部140は、複数の色情報に含まれる、第1の色情報を用いて、特定部位の設定を行う。このようにすることで、特定部位200と特定部位200以外の境界をより正確に推論することができるので、自動モードにおける特定部位範囲表示Exをより正確に表示することができる。
 また、特定部位範囲表示Exが表示されたとき、B4に示すように、特定部位200の範囲を設定した旨の表示をするとともに、特定部位範囲表示Exが適切に表示されているかについて、術者に確認を求める表示を行う。術者は、例えば特定部位範囲表示Exが適切に表示されていると判断した場合は、その旨の入力操作を行う。また、特定部位範囲表示Exが適切に表示されていない場合、術者は、特定部位200の範囲を再度設定する選択を行うことができる。特定部位範囲表示Exが適切に表示されていない場合とは、例えば、特定部位範囲表示Exが示す領域が、術者がモニタ150上で見定めた特定部位200の領域と著しく異なる位置に表示されている場合等である。術者は、例えば同一画像に対して別の設定モードで特定部位200の範囲を再度設定することができる。機械学習が対応できていない等の理由により、手動モードでないと特定部位200が設定できない場合があるからである。つまり、特定部位設定部140は、第1設定モードで撮像画像に対して特定部位200を設定した後、第1設定モードで特定部位200を設定した撮像画像と同じ撮像画像に対して第2設定モードで特定部位200の設定をやり直し可能である。また、術者は、別の画像で特定部位200の範囲を再度設定することを選択することもできる。再度の撮像を行うことで、特定部位200の表示の様相が変わると、自動モードによる特定部位200の設定結果が変わり得るからである。つまり、特定部位設定部140は、第1設定モードで特定部位200を設定した撮像画像を第1撮像画像としたとき、第1撮像画像とは異なる第2撮像画像に対して、特定部位200の設定をやり直し可能である。第2撮像画像は、第1撮像画像に写る特定部位200と同じ特定部位200が写る撮像画像である。以上のように、本実施形態の内視鏡システム1において、特定部位設定部140は、特定部位200の設定を同一画像の異なる設定モードまたは、別画像で、やり直し可能である。このようにすることで、特定部位200の範囲の設定をより適切に行うことができる。
 本実施形態の内視鏡システム1の構成は以上に限定されない、例えば図6に示すように、内視鏡システム1は、さらに、画像処理装置3、光源装置4、内腔構造検出装置5、磁気センサ16、磁場発生装置7を含む構成にしてもよい。
 画像処理装置3は、受信した撮像信号に対して所定の画像処理を行い、撮像画像を生成するビデオプロセッサである。生成された撮像画像の映像信号は、画像処理装置3からモニタ150へ出力され、ライブの撮像画像が、モニタ150上に表示される。これにより、例えば術者は、挿入部2bの先端部11を患者Paの肛門から挿入した場合において、患者Paの大腸内を観察することができる。
 挿入部2bの先端部11には、磁気センサ16が配置されている。具体的には、磁気センサ16は、先端部11の撮像部30の近傍に配置され、撮像部30の視点の位置と姿勢を検出するための検出装置である。磁気センサ16は、例えば図7に示すように、2つのコイル16a、16bを有する。円筒状の2つのコイル16a、16bの2つの中心軸は、互いに直交している。よって、磁気センサ16は、6軸のセンサであり、先端部11の位置座標と配向を検出する。ここでの配向とはオイラー角を表す。なお、磁気センサ16は、図7に示す例に限られず、コイル16a、16bの組合せや配置を変更する等の変形実施が可能である。例えば挿入部2bの径が大きくならないことを優先する場合、性能や検出軸数に制限が生じ得るが、2つのコイル16a、16bが交差する角度を変更してもよい。また、例えば、磁気センサ16は、1つのコイル16aから構成してもよい。磁気センサ16の信号線2eが、内視鏡2から延出し、内腔構造検出装置5に接続されている。
 磁場発生装置7が所定の磁場を発生し、磁気センサ16は、磁場発生装置7が発生する磁場を検出する。磁場発生装置7は、信号線7aにより内腔構造検出装置5と接続されている。磁場の検出信号は、信号線2eを経由して内視鏡2から内腔構造検出装置5へ供給される。なお、磁気センサ16に代えて先端部11に磁場発生素子を設け、磁場発生装置7に代えて、患者Paの外部に磁気センサ16を設けるようにして、先端部11の位置及び姿勢を検出するようにしてもよい。ここでは、磁気センサ16により、先端部11の位置及び姿勢、言い換えれば撮像部30により取得される撮像画像の視点の位置及び向きがリアルタイムで検出される。
 光源装置4は、通常光観察モード用の通常光を出射可能な光源装置である。なお、内視鏡システム1が通常光観察モードの他に特殊光観察モードも有している場合は、光源装置4は、通常光観察モード用の通常光と、特殊光観察モード用の特殊光とを選択的に出射する。光源装置4は、画像処理装置3に設けられた観察モードを切り換えるための切換スイッチの状態に応じて、通常光と特殊光のいずれかを照明光として出射する。
 内腔構造検出装置5は、プロセッサ51と、記憶装置52と、インターフェース53と、画像取込部54と、位置姿勢検出部55と、駆動回路56を含む。内腔構造検出装置5の各部は、バス58により互いに接続されている。
 プロセッサ51は、CPUとメモリを有し、内腔構造検出装置5内の各部の処理を制御する制御部である。メモリは、ROM、RAMなどを含む記憶部である。ROMには、CPUにより実行される各種処理プログラム及び各種データが記憶されている。CPUは、ROM及び記憶装置52に格納された各種プログラムを読み出して実行することができる。
 記憶装置52には、内腔構造算出プログラムが格納されている。内腔構造算出プログラムは、先端部11の位置及び姿勢の情報と、撮像画像とから内腔構造情報を算出するソフトウエアプログラムである。CPUが内腔構造算出プログラムを読み出して実行することにより、プロセッサ51は、撮像部30により得られた撮像画像と磁気センサ16に検出された先端部11の3次元配置とに基づいて、内腔の3次元構造を算出する内腔構造算出部を構成する。
 インターフェース53は、プロセッサ51によって算出された内腔構造情報を、内腔構造算出システム100に出力する。インターフェース53は、例えば内腔構造算出システム100との通信を行う通信インターフェースである。
 画像取込部54は、画像処理装置3において得られた撮像画像を、一定の周期で取り込む処理部である。例えば、内視鏡2から、フレームレートと同じ、1秒間に30枚の撮像画像を、画像処理装置3から取得する。なお、ここでは、画像取込部54は、1秒間に30枚の撮像画像を取り込んでいるが、フレームレートよりも長い周期で撮像画像を取得するようにしてもよい。例えば画像取込部54は、1秒間に3枚等の撮像画像を取り込んでもよい。
 位置姿勢検出部55は、磁場発生装置7を駆動する駆動回路56を制御して、磁場発生装置7に所定の磁場を発生させる。位置姿勢検出部55は、その磁場を磁気センサ16により検出し、その検出された磁場の検出信号から、撮像部30の位置座標(x、y、z)と配向(vx、vy、vz)のデータを生成する。配向とはオイラー角を表す。即ち、位置姿勢検出部55は、磁気センサ16からの検出信号に基づいて、撮像部30の位置と姿勢を検出する検出装置である。より具体的には、位置姿勢検出部25は、時間経過に伴う3次元配置の変化の情報である3次元配置時間変化情報を検出する。よって、位置姿勢検出部25は、複数の時点の挿入部2bの3次元配置情報を取得する。
 以上の説明は、内腔構造算出システム100の外部装置である内腔構造検出装置5によって、内腔の3次元構造を算出する例であるが、本実施形態の手法はこれに限定されず、内腔構造算出システム100が内腔の3次元構造を算出してもよい。図8は内視鏡システム1の他の構成例を示すブロック図である。図8の内視鏡システム1において、内腔構造算出部120は、各撮像画像中の複数の特徴点Fを抽出する特徴点抽出部122と、複数の特徴点Fの撮像画像上の位置に基づき、各特徴点Fの3次元空間内の位置を算出する3次元位置算出部124を含む。特徴点抽出部122と3次元位置算出部124は、図6のプロセッサ51と同等のプロセッサ及びプロセッサ51上で動作するプログラムモジュールにより実現できる。なお、図8において、画像処理装置3、光源装置4、磁場発生装置7等の図示は省略する。
 次に、図9、図10、図11、図12を用いて、内腔構造を算出する手法について説明する。以下の説明は、図6に示す内視鏡システム1の各部によって行われるが、図8に示す内視鏡システム1によっても実現できる。例えば、図9や図11のフローチャートの各処理は、以下の説明ではプロセッサ51が行うことで実現できるが、内腔構造算出部120、特徴点抽出部122や3次元位置算出部124等を構成するプロセッサが適宜行うことでも実現できる。
 図9は、内腔構造の算出処理の流れの例を示すフローチャートである。はじめに、術者は、挿入部2bの先端部11を、所定位置に配置した状態で、不図示の入力装置に対して所定の操作を行う。所定位置とは、例えば図10のように内腔が大腸である場合、C1に示す肛門である。当該操作に基づいて、プロセッサ51は、位置姿勢検出部55からの位置と姿勢のデータを、内腔構造を算出するときの先端部11の基準位置と基準姿勢として設定する(ステップS1)。例えば術者は、先端部11を所定位置に当てた状態で、3次元空間内の所定位置における先端部11の基準位置と基準姿勢を初期値とする設定を行う。以下の処理で算出される内腔構造は、ここで設定された基準位置と基準姿勢に基づいて算出される。
 基準位置と基準姿勢の設定後、術者は、先端部11を、特定位置まで挿入する。特定位置とは、例えば図10のC2に示す大腸の最奥部である。挿入部2bの先端部11がC2に示す特定位置にある状態から、空気を送気して大腸内を拡張させ、術者は挿入部2bを引きながら、C1に示す所定位置に向かって移動させ、途中で挿入部2bの引き抜きを停止させたりしながら、湾曲部12を種々の方向に湾曲させて大腸の内壁を観察する。術者が大腸の内壁を観察しているときに、大腸の内腔構造が算出される。
 画像取込部54は、画像処理装置3から30分の1秒毎に供給される撮像画像から所定の周期Δt毎の撮像画像を取得する(ステップS2)。周期Δtは、例えば0.5秒である。CPUは、撮像画像を取得したときの位置姿勢検出部55の出力する先端部11の位置と姿勢の情報を取得する(ステップS3)。
 プロセッサ51は、ステップS2で取得した1枚の撮像画像とその前に取得済の1枚以上の撮像画像とにおける複数の特徴点F等の3次元空間内の位置情報を算出する(ステップS4)。算出された複数の特徴点F等の位置情報の集合が、内腔構造の情報となる。後述するように、各特徴点Fの位置情報は、画像情報からSLAM(Simultaneous Localization and Mapping)、SfM(Structure from Motion)などの手法を用いて算出してもよいし、三角測量の原理を用いて算出してもよい。各特徴点Fの位置の算出方法については後述する。
 なお、最初の1枚の撮像画像が取得されたときは、その前の取得済の撮像画像はないので、所定枚数の撮像画像が取得されるまでは、ステップS4の処理は実行されない。
 プロセッサ51は、算出された複数の特徴点F等の位置情報を追加することによって、内腔構造情報を作成或いは更新する(ステップS5)。
 図10に示すように、内視鏡2により観察した領域における1以上の特徴点Fの集合等によって、ステップS5で作成される内腔構造情報が構成される。内腔構造情報は、3Dデータである。図10は、内腔構造情報を所与の視点から見たときの画像を表す。例えば内腔構造情報を表示する場合、ユーザは視点位置を変更する指示を入力することによって、360度の所望の方向から見たからときの内腔の構造を確認することができる。
 また図10では内腔における凹凸まで考慮した内腔構造情報を例示したが、内腔構造情報はより簡略化された情報であってもよい。例えば、内腔構造情報は円筒モデルであってもよい。内腔を円筒であると仮定することによって、処理負荷を軽減することが可能になる。例えば磁気センサ16等のセンサを用いない場合、内腔の形状を円筒とすることによる計算量の削減効果が大きい。また、簡略化の仕方として、屈曲の無い直線状の内腔や単純な屈曲のみを想定したり、標準的な内腔構造の部位ごとの長さや径等のサイズのみ異なる構造モデルを想定したりしても良い。
 内腔構造検出装置5のインターフェース53は、生成された内腔構造情報を内腔構造算出システム100に出力する(ステップS6)。またステップS6において、インターフェース53は、内腔構造情報をモニタ150に表示する制御を行ってもよい。次に、プロセッサ51は、挿入部2bが患者から抜去されたか否かを判定する(ステップS7)。例えばユーザは、挿入部2bを抜去した場合に、不図示の入力装置を用いて観察終了を表すユーザ入力を行う。プロセッサ51は、当該ユーザ入力に基づいてS7に示す判定を行う。抜去が行われていない場合(ステップS7でNo)、処理はステップS2に戻る。
 以上のように、内腔構造算出部120は、算出された3次元空間内の各特徴点Fの位置から内腔の3次元構造を算出する。このようにすることで、撮像画像に基づいた3次元構造を生成することができる。
 ステップS4の特徴点F等の位置の算出は、種々の方法がある。以下に、いくつかの方法について説明する。プロセッサ51は、SLAM,SfMなどの手法を利用して、連続する複数の画像上の特徴点Fの位置を算出してもよい。
 内腔構造情報の生成において、非線形最小二乗法を用いて、画像から、内部パラメータ、外部パラメータ及び世界座標点群を最適化するバンドル調整を適用可能である。例えば、推定された各パラメータを用いて、抽出された複数の特徴点Fの世界座標点を透視投影変換し、再投影誤差が最小になるように、各パラメータと各世界座標点群が求められる。
 先端部11についての外部パラメータは、5点及び8点アルゴリズムを解くことによって算出される。特徴点Fの位置は、先端部11の位置と三角測量法に従って算出される。画像平面上に投影された3D点の座標と、再投影誤差による特徴点Fとの誤差Eは、次の式(1)により表される。
Figure JPOXMLDOC01-appb-M000001
 ここで、Lは、K個の画像上の特徴点Fの数であり、Psjは、画像平面上に三角測量と先端部11のパラメータにより推定された3D点Piの座標位置であり、Piは、画像上の対応する特徴点Fの座標位置である。先端部11の位置座標は、LM(Levenberg-Marquartdt)法を用いて、式(1)の誤差Eの関数を最小化するように算出される。
 なお、図4、図5の説明において、撮像画像が複数の色情報を含む場合、当該複数の色情報から、第1の色情報と、第1の色情報と異なる第2の色情報に分離してもよいことを前述したが、図9のフローチャートに、画像情報を第1の色情報と第2の色情報に分離する処理を追加してもよい。また、分離した第2の色情報に基づいてステップS3以降の処理を行ってもよい。図11のフローチャートについても同様である。つまり、本実施形態の内視鏡システム1において、内腔構造算出部120は、複数の色情報に含まれ、かつ第1の色情報を含まない第2の色情報を用いて、3次元構造と、3次元構造寸法情報とを出力する。このようにすることで、観察対象である内腔に近い色からなる画像に基づいて3次元構造等を生成することから、3次元構造の推定の精度を向上させることができる。
 図11は、各特徴点Fの3次元空間内の位置算出をバンドル調整により行う方法のフローチャートである。プロセッサ51は、前述の所定位置が初期位置と設定されたときを、時刻tをt0とし、ソフトウエアカウンタのカウント値nを、0とする(ステップS11)。
 プロセッサ51は、時刻t0における撮像画像と、先端部11の位置と姿勢の情報を取得する(ステップS12)。撮像画像は、画像処理装置3から取得される。先端部11の位置と姿勢の情報は、位置姿勢検出部55から取得される。
 プロセッサ51は、初期位置における先端部11の位置と姿勢を決定する(ステップS13)。例えば、所定位置(x、y、z)が(0,0,0)に、姿勢(vx、vy、vz)が(0,1,0)に決定される。ステップS11とステップS13が、図9のステップS1に対応する。
 プロセッサ51は、時刻(t0+nΔt)における撮像画像と、先端部11の位置と姿勢の情報を取得する(ステップS14)。ステップS12とステップS14が、図9のステップS2に対応する。なお、先端部11の位置と姿勢の情報は、修正してもよい。例えば、カルマンフィルタを用いて、先端部11が過去に通ったパスが修正され、その修正されたパスに基づいて、過去の先端部11の位置が修正される。
 プロセッサ51は、nがkになると、各撮像画像における複数の特徴点Fを抽出し、k個の時点における先端部11の位置と姿勢すなわち先端部11の3次元配置を既知として、得られた撮像画像に含まれるm個の特徴点Fの位置を、上述したバンドル調整により算出する(ステップS15)。よって、ステップS15における各内視鏡画像における複数の特徴点Fの抽出処理が、各撮像画像中の複数の特徴点Fを抽出する特徴点抽出部を構成する。ステップS15では、複数の時点の撮像画像に共通して映されている特徴点Fが抽出される。ステップS15における各特徴点Fの3次元空間内の位置の算出処理が、抽出された複数の特徴点Fの撮像画像中の位置と、挿入部2bの3次元配置とから、特徴点Fの3次元空間内の位置を算出する3次元位置算出部を構成する。より具体的には、複数の時点の挿入部2bの3次元配置情報と、複数の時点の撮像画像に共通して映されている特徴点Fの撮像画像上の位置とに基づき、特徴点Fの3次元空間内の位置が算出される。そして、バンドル調整により各特徴点Fの3次元空間内の位置は決定される。
 以上のことから、本実施形態の内視鏡システム1において、特徴点抽出部122は、複数の時点の撮像画像に共通して映されている特徴点を抽出する。また、3次元位置算出部124は、撮像部30の位置及び向きの少なくとも一部の情報を抽出する位置センサである磁気センサ16の出力に基づき、複数の時点の挿入部2bの3次元配置情報を取得する。また、3次元位置算出部124は、複数の時点の挿入部2bの3次元配置情報と、複数の時点の撮像画像に共通して映されている特徴点Fの撮像画像上の位置とに基づき、特徴点Fの3次元空間内の位置を算出する。
 図12は、連続して取得された複数の撮像画像上の特徴点Fと、先端部11の位置と姿勢の関係を説明するための模式図である。図12において、白い三角形Pwは、先端部11の実際の位置と姿勢を示し、黒い三角形Pbは、先端部11の推定された位置と姿勢を示す。先端部11は、実線に沿って実際に移動したことを示している。推定された先端部11は、点線に沿って移動している。時間経過に伴って、先端部11の位置は移動し、先端部11の姿勢は変化している。
 また、図12において、白い四角形pwは、特徴点Fの実際の位置を示し、黒い四角形pbは、特徴点Fの推定すなわち算出された位置を示す。特徴点Fは、例えば、撮像画像中において形状や色が特徴的で、判別あるいは追跡が容易な箇所である。
 大腸の3次元内腔構造を得るには、大腸の腸管の内壁上の複数の特徴点Fの座標を求め、求めた複数の座標の集合により、あるいはそれらの座標を繋ぎ合わせることにより3次元モデルが生成される。すなわち、内腔の3次元構造は、3次元空間内の算出された各特徴点Fの位置から決定される。
 図12において、各時点における先端部11の位置と姿勢の情報は、6軸分の情報を含むため、k個の時点における先端部11の位置と姿勢の情報は、6k個の情報を含む。各特徴点Fの位置は、3軸分の情報を含むため、m個の特徴点Fの位置の情報は、3m個の情報を含む。よって、SLAM、SfM等の手法を用いる場合、決定すべきパラメータの個数は(6k+3m)個となる。
 本実施形態の手法においては、上述したとおり、内視鏡2の先端部11に磁気センサ16が設けられ、内腔構造検出装置5は、磁気センサ16によって検出された位置姿勢情報を取得する位置姿勢検出部55を含んでもよい。この場合、先端部11の位置及び姿勢に対応する6k個のパラメータは既知となる。プロセッサ51による最適化演算は、3m個のパラメータを算出に限定されるため、最適化演算の処理量を軽減できる。よって処理の高速化が可能である。またパラメータ数の削減によって検出誤差の蓄積が抑制されるため、生成される3次元モデル構造がずれていくことを抑制できる。
 また、内視鏡2の挿入部2bの先端部11が内腔の内壁に押し当てられたり、汚れた洗浄水に浸ってしまったり、撮像画像がぶれるなどして適切な連続した撮像画像が得られなかった場合があっても、先端部11の位置と姿勢の情報は得られている。よって、連続した撮像画像が得られなかった場合が生じても、3m個のパラメータを算出できる可能性は高まる。結果として、内腔構造の算出のロバスト性が高まる。
 図11に戻り説明を続ける。プロセッサ51は、作成済の内腔構造情報に、新たに算出された特徴点Fの位置情報を追加して、内腔構造情報を更新する(ステップS16)。ステップS16は、図9のステップS5に対応する。
 プロセッサ51は、過去に算出した特徴点Fの位置情報を修正する(ステップS17)。新たに算出して得られた3m個の特徴点Fのうち、過去に算出された特徴点Fの位置情報は、新たに算出された位置情報を用いて、例えば平均値演算により、過去に算出された位置情報を修正する。なお、ステップS17の処理は、行わなくてもよく、新たに算出された特徴点Fの位置情報で、過去に算出された各特徴点Fの位置情報を更新するようにしてもよい。
 ステップS17の後、プロセッサ51は、nを1だけインクリメントし(ステップS18)、検査終了のコマンドが入力されたかを判定する(ステップS19)。検査終了のコマンドは、例えば、挿入部2bが大腸から抜去された後に、術者が入力装置に入力する所定のコマンドである。当該コマンドが入力されると(ステップS19でYES)、処理が終了する。
 検査終了のコマンドが入力されないとき(ステップS19でNO)、処理はステップS14へ移行する。その結果、プロセッサ51は、撮像画像の最後の取得時刻から周期Δtだけ後の撮像画像を取得し(ステップS14)、ステップS15以降の処理を実行する。
 以上の処理を行うことによって、内腔構造情報が出力される。ただし、これらの手法による内腔構造情報は各特徴点F間の位置関係が相対的に求められていることから、絶対的な寸法値の情報を得ることはできない。
 なお、本実施形態において、図9~図12で説明した内腔構造の算出処理の手法に、図4、図5で説明した特定部位範囲表示Exの設定手法をさらに組み合わせることもできる。つまり、撮像画像に基づいて、特定部位200の範囲が設定されるとともに、内腔構造の算出処理により特徴点Fが抽出されるので、当該特定部位200の範囲内にある特徴点Fも抽出される。そして、内腔の3次元構造の各特徴点Fの位置が算出されることにより、特定部位200の内部における特徴点Fの位置も算出される。言い換えれば、抽出された特定部位200の特徴点Fと、3次元構造内の特徴点Fとの対応付けによって、特定部位200の位置が算出される。以上のように、本実施形態の内視鏡システム1は、撮像画像から特定部位200を抽出するとともに、特定部位200が写る撮像画像から特徴点Fを抽出する特定部位設定部140をさらに含み、特定部位設定部140は、抽出した特徴点Fと、3次元構造内の特徴点Fとの対応付けによって、3次元構造における特定部位200の位置を設定する。
 次に、3次元構造寸法情報を算出する手法について説明する。図13は、3次元構造寸法情報を算出する処理例を説明するフローチャートである。内腔構造算出システム100は、内腔画像を取得する(ステップS21)。具体的には、例えば取得部110は、画像処理装置3から送信された撮像画像を取得する。その後、内腔構造算出システム100は、3次元構造を生成する(ステップS22)。具体的には、図9~図12で前述したいずれかの手法を用いて複数の特徴点F等の3次元空間内の位置情報を算出し、内腔の3次元構造を生成する。
 次に、内腔構造算出システム100は、実寸法を較正する(ステップS23)。具体的には、例えば撮像範囲に、予め寸法情報の少なくとも一部が既知の比較対象物を配置する。ここでの比較対象物は、例えば、先端部11から内腔に挿入され、観察や診断または治療等に用いられる処置具であるが、他に先端部11に装着するキャップ等であってもよく、少なくとも一部が撮像の視野に入ればよい。例えば、図14に示すように、病変である特定部位200の周囲にOリング300を配置した場合、当該Oリング300を比較対象物としてもよい。なお、Oリング300の配置の手法は図14の例に限られず、例えばOリング300を特定部位200の近辺に、特定部位200を囲わずに配置してもよい。また、Oリング300のサイズは、特定部位200のサイズより小さくてもよい。この場合、前述のステップS21における内腔画像はOリング300の画像を含み、ステップS22における3次元構造はOリング300の3次元構造を含む。言い換えれば、実寸法決定情報取得部112は、内腔の撮像画像に基づいて、既知であるOリング300の実寸法を、実寸法決定情報として取得し、内腔構造算出部120は、当該実寸法決定情報に基づいて、ステップS22で生成した3次元構造の実寸法を較正する処理を行う。なお、術者がワイヤ状やナイフ状・棒状等の処置具等を内腔の内壁に押し付けることで、内腔構造算出システム100はステップS23の処理を行ってもよい。前述のように、特定部位200の周囲に配置する比較対象物は、寸法が既知であればよいからである。以上のように、本実施形態の内視鏡システム1の実寸法決定情報取得部は、撮像画像に映り、寸法が既知の比較対象物の撮像画像上の大きさを実寸法決定情報として取得する。このようにすることで、3次元構造の絶対寸法値を把握することができる。
 その後、内腔構造算出システム100は、3次元構造の構築が更に必要か否かについて判断し、必要であれば(ステップS24でYES)ステップS21へ戻り、不要であれば(ステップS24でNO)、距離情報を算出する(ステップS25)。例えば術者が特定部位200である病変を発見した場合、当該病変を最適に撮像できていると判断するまでは観察を継続するので、内腔の3次元構造は構築され続ける。そして、術者が当該病変を最適に撮像できていると判断した場合、図5で前述した手法により、特定部位200の算出を行う。
 なお、ステップS21~ステップS23までの処理のループは、所定期間内に行われることが望ましい。図15で後述するステップS31、ステップS32、ステップS33、ステップS34及びステップS35からなる処理のループについても同様である。所定期間とは、例えば撮像対象である大腸は蠕動運動、振子運動または分節運動等に伴い定期的に変形するが、当該変形が起きたときから次の変形が起きるまでの期間である。ステップS21~ステップS23の処理が完了する前に大腸等が変形すると、適切な3次元構造が構築できなくなるからである。つまり、本実施形態の内視鏡システム1において内腔構造算出部120は、所定の時間内に撮影された撮像画像と、所定の時間内に取得された実寸法決定情報とに基づいて、3次元構造と、3次元構造寸法情報を出力する。このようにすることで、適切に内腔の3次元構造を形成することができる。また、絶対寸法値が含まれる3次元構造が得られた後に変形した場合、観察対象に変形の様子を追従することができる。
 図15は、3次元構造寸法情報を算出する別の処理例を説明するフローチャートである。図15の処理例は、撮像画像と絶対値寸法情報を取得し、絶対値寸法を含む3次元構造を求める処理例である。内腔構造算出システム100は、図13のステップS21と同様に、内腔画像を取得する(ステップS31)。その後、内腔構造算出システム100は、センサの検出結果を取得するタイミングであるか否かについて判断する処理を行い、センサの検出結果を取得するタイミングであれば(ステップS32でYES)、センサの検出結果を取得する(ステップS33)。ステップS33の処理の詳細は後述する。内腔構造算出システム100は、前述のステップS33の処理を行った後、または、センサの検出結果を取得するタイミングでない場合(ステップS32でNO)、特徴点F間の距離を算出する(ステップS34)。そして、内腔構造算出システム100は、図13のステップS22と同様の手法により、3次元構造を生成する(ステップS35)。ステップS35の時点で、生成された3次元構造は絶対値寸法情報を含む点で、図15の処理例は図13の処理例と異なる。その後、図13のステップS24とステップS25と同様に、内腔構造算出システム100は、3次元構造の構築が更に必要か否かについて判断し、必要であれば(ステップS36でYES)ステップS31へ戻り、不要であれば(ステップS36でNO)、距離情報を算出する(ステップS37)。
 次に、図15のステップS33の詳細について説明する。ステップS33のセンサは、例えば位置センサである磁気センサ16である。ステップS33は、具体的には、例えば内腔構造算出部120は、位置センサである磁気センサ16からの出力情報に基づいて、実寸法決定情報である先端部11の位置及び向きに関する情報を、言い換えれば撮像部30の位置又は向きに関する情報を、実寸法決定情報取得部112を通じて取得する。そして、ステップS34において、内腔構造算出部120は、ステップS31で取得した内腔画像から抽出される特徴点Fに、撮像部30の位置又は向きに関する情報を組み入れることにより、実寸法を含む内腔の3次元構造を生成する。つまり、実寸法決定情報取得部112は、撮像部30の位置及び向きに関する情報のうち少なくとも一部の情報を抽出する位置センサである磁気センサ16の出力に係る情報を、実寸法決定情報として取得する。このようにすることで、相対的にしか得られない3次元構造に対して絶対的な寸法情報を加えることができる。
 また、磁気センサ16に限らず、形状センサと挿入量・捩り量センサを用いて先端部11の位置及び向きを検出してもよい。形状センサは、図示は省略するが、例えば光ファイバを利用して、特定箇所の曲率から曲げ量を検出する曲げセンサであるファイバセンサである。挿入量・捩り量センサは、図示は省略するが、挿入部2bが挿通可能な孔を有する円筒形状を有し、当該孔の内周面には、挿入部2bの軸方向の挿入量を検出するためのエンコーダと、挿入部2bの軸周りの回転量を検出するエンコーダとが配設されている。術者は、形状センサと挿入量・捩り量センサを用いることにより、初期位置と、挿入部2bの挿入量と、捩り量とに基づいて、先端部11の位置及び向きを推定することができる。
 また、ステップS33のセンサは、例えば測距センサであってもよい。図16は、測距センサを有する挿入部2bの先端部11の先端部分の斜視図である。先端部11の先端面11a1には、観察窓41と、2つの照明窓42と、鉗子口43と、測距センサであるTOF(Time Of Flight)センサ60が配設されている。TOFセンサ60は、光の飛行時間を計ることにより、距離画像を検出し、距離を計測する。イメージセンサの各画素にTOF機能が埋め込まれている。よって、TOFセンサ60は、画素毎の距離情報を得る。すなわち、TOFセンサ60は、挿入部2bの先端部11に設けられ、先端部11から内腔の内壁までの距離を検出する。これにより、撮像部30から被写体までの距離の情報を求めることができる。距離の情報とは、例えば距離分布の情報であるが、1点に対する距離の情報であってもよい。そして、ステップS33において、内腔構造算出部120は、実寸法決定情報取得部112を介して、先端部11から撮像対象となる内腔の内壁までの距離の情報を、実寸法決定情報としてTOFセンサ60から取得する。そして、ステップS34において、内腔構造算出部120は、ステップS31で取得した内腔画像から抽出される特徴点Fに先端部11から内腔の内壁までの距離の情報を組み入れることにより、実寸法を含む内腔の3次元構造を生成する。なお、測距センサは、TOFセンサ60に限らずLiDAR(Light Detection and Ranging /Laser Imaging Detection and Ranging)などの他の方式のセンサでもよい。以上のように、本実施形態の内視鏡システム1の実寸法決定情報取得部112は、撮像部30から被写体までの距離の情報を抽出する距離計測部であるTOFセンサ60の出力に係る情報を、実寸法決定情報として取得する。
 なお、撮像部30から被写体までの距離分布を求める手法は、センサによる手法に限定されず、例えば、1枚の撮像画像からShape From Shading法により内腔の立体形状を推測することで、撮像部30から被写体までの距離分布を得てもよい。Shape From Shading法は、物体の表面の陰影に基づいて3次元形状を求める手法であり、例えば内腔において、照明窓42からの距離が等しい内壁の表面上の曲線を偏微分方程式で記述し、これを解くことで3次元形状を算出することができる。より詳細な説明は、公知の内容であるため、省略する。
 本実施形態の手法は、以上に限定されず、種々の変形実施が可能である。変形例として、例えば、内視鏡システム1は、図17のE1に示す撮像画像において、任意の2つの計測点MA,MBを術者が設定した場合に、E2に示す画面において、計測点MA,MBの2点間の情報をユーザに呈示してもよい。2点間の情報とは、2点間のX方向、Y方向、Z方向それぞれの成分や、2点間の長さや、2点間の投影長さ等である。図17のE2に示す画面表示は、以下の手法により実現することができる。例えば、図18に示すように、絶対寸法値が既知の3次元構造を構成する特徴点Fが配列されているものとする。内腔構造算出部120は、計測点MAに最も近い特徴点FAと、計測点MBに最も近い特徴点FBを抽出し、特徴点FAと特徴点FBの座標情報に基づいて、計測点MA,MBの座標や距離等の情報を求め、当該情報を寸法推定部130に送信する処理を行う。なお、内腔構造算出部120は、計測点MA,MBの近傍に位置する複数の特徴点Fの座標情報を用いて計測点MA,MBの座標や2点間の情報を求めてもよい。そして、寸法推定部130は当該情報に基づく画面データをモニタ150に出力する処理を行う。
 また、別の変形例として、内視鏡システム1は、図19のG1に示すように、3次元の特定部位構造200Aを、視点の向きを変えながらユーザに呈示してもよい。また、G2に示すように、3次元の特定部位構造200Aの長径D1、短径D2、高さHをモニタ150上でユーザに呈示してもよい。このようにすることで、ユーザである術者や患者Paは特定部位200について適切に理解することができる。
 特定部位構造200Aは3次元構造であり、視点・向きによって見え方が変わり得ることから、視線方向を規定せずにサイズ測定を行うと、サイズ測定結果がばらつく。そこで、本実施形態の内視鏡システム1の3次元構造算出部は、特定部位200の周囲における内腔の内壁に平行な面、言い換えれば図20や図21に示す法線ベクトルNに垂直な面に投影した対象物に基づいて、特定部位構造200Aの長径D1、短径D2、高さHを算出する。つまり高さHは、上記内壁に平行な面を基準とする高さであり、図21に示すように、法線ベクトルNと平行な方向に沿った、特定部位構造200Aの長さである。そして、図22に示すように、法線ベクトルNに垂直な方向から見て、特定部位構造200Aの長径D1と短径D2を求める。そして、寸法推定部130は、これらの情報に基づく表示データをモニタ150に出力する。以上のように、本実施形態の内視鏡システム1の寸法推定部130は、特定部位200の周囲の内腔に平行な面に投影した対象物の実寸法である長径D1及び短径D2を特定部位寸法情報として出力する。このようにすることで、特定部位200のサイズ測定の視線方向が決まるので、特定部位200サイズの測定結果の正確性が向上する。また、本実施形態の内視鏡システム1の寸法推定部130は、特定部位200の周囲における内腔の内壁に垂直な方向の対象物の実寸法である高さHを特定部位寸法情報として出力する。図22に示すように法線ベクトルNに垂直な方向から特定部位200を観察する状況において、ユーザは高さHの情報を把握しにくいが、本実施形態の手法を適用することで、ユーザは特定部位200の高さHの情報も併せて知ることができる。
 また、本実施形態の手法は、内腔の3次元構造全体における特定部位200の大きさの実寸法情報を把握する例を説明したが、これに限られない。本実施形態の内視鏡システム1は、所定の開口部から特定部位200までの距離LEの実寸法情報を把握することもできる。距離LEは、例えば図23に示すように、Jに示す所定の開口部から特定部位200の中心までの距離である。なお所定の開口部とは、例えば大腸観察の場合、肛門である。またここでの中心は略中心を含む。例えば特定部位200が病変であって、術者が特定部位200を摘出するために、複数の処置のうち最適な処置を検討している状況が有るものとする。複数の処置とは例えば内視鏡による摘出か、外科的手術による摘出等である。この場合、本実施形態の手法により所定の開口部からの特定部位200までの距離LEの実寸法が把握できることで、術者は、複数の処置の中から適切な処置を選択することができる。また、当該距離LEの実寸法が把握できることにより、術者は、処置後の経過状況について、より高い精度で予測することができる。
 なお、上記のように本実施形態について詳細に説明したが、本実施形態の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また本実施形態及び変形例の全ての組み合わせも、本開示の範囲に含まれる。また内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法等の構成及び動作等も、本実施形態で説明したものに限定されず、種々の変形実施が可能である。
 1…内視鏡システム、2…内視鏡、2a…操作部、2b…挿入部、2c…ユニバーサルケーブル、2e…信号線、3…画像処理装置、4…光源装置、5…内腔構造検出装置、7…磁場発生装置、7a…信号線、11…先端部、12…湾曲部、12a…湾曲部、12b…湾曲部、12c…湾曲部、13…可撓管部、14…湾曲操作部材、14a…左右湾曲操作ノブ、14b…上下湾曲操作ノブ、14c…固定ノブ、16…磁気センサ、16a,16b…コイル、30…撮像部、31…画像取得部、32…画像処理部、33…制御部、34…記憶部、35…フォーカス制御部、51…プロセッサ、52…記憶装置、53…インターフェース、55…位置姿勢検出部、56…駆動回路、58…バス、100…内腔構造算出システム、110…取得部、112…実寸法決定情報取得部、120…内腔構造算出部、122…特徴点抽出部、124…3次元位置算出部、130…寸法推定部、140…特定部位設定部、150…モニタ、200…特定部位、300…Oリング、D1…長径、D2…短径、F,FA,FB…特徴点、H…高さ、LE…距離、N…法線ベクトル、MA,MB…測定点、Pa…患者

Claims (20)

  1.  被写体となる内腔に挿入される挿入部と、
     前記挿入部に設けられ、前記被写体の撮像画像を取得する単眼の撮像部と、
     前記内腔の少なくとも一部に係る実寸法を決定する情報である実寸法決定情報を取得する実寸法決定情報取得部と、
     前記撮像画像と前記実寸法決定情報に基づいて、前記内腔の3次元構造と、前記3次元構造の少なくとも一部に係る実寸法を決定する情報である3次元構造寸法情報と、を算出する内腔構造算出部と、
     前記3次元構造寸法情報に基づき、前記3次元構造における特定部位の実寸法である特定部位寸法情報を出力する寸法推定部と、を含むことを特徴とする内視鏡システム。
  2.  請求項1において、
     前記内腔構造算出部は、
     各撮像画像中の複数の特徴点を抽出する特徴点抽出部と、
     前記複数の特徴点の前記撮像画像上の位置に基づき、各特徴点の3次元空間内の位置を算出する3次元位置算出部と、を有し、
     前記内腔構造算出部は、算出された前記3次元空間内の前記各特徴点の位置から前記内腔の前記3次元構造を算出することを特徴とする内視鏡システム。
  3.  請求項2において、
     前記撮像画像から前記特定部位を抽出するとともに、前記特定部位が写る前記撮像画像から前記特徴点を抽出する特定部位設定部と、
     をさらに含み、
     前記特定部位設定部は、抽出した前記特徴点と、前記3次元構造内の前記特徴点との対応付けによって、前記3次元構造における前記特定部位の位置を設定することを特徴とする内視鏡システム。
  4.  請求項2において、
     前記撮像部は、複数の時点の前記撮像画像を取得し、
     前記特徴点抽出部は、前記複数の時点の前記撮像画像に共通して映されている前記特徴点を抽出し、
     前記3次元位置算出部は、
     前記撮像部の位置及び向きの少なくとも一部の情報を抽出する位置センサの出力に基づき、前記複数の時点の前記挿入部の3次元配置情報を取得し、
     前記複数の時点の前記挿入部の前記3次元配置情報と、複数の時点の前記撮像画像に共通して映されている前記特徴点の前記撮像画像上の位置とに基づき、前記特徴点の前記3次元空間内の位置を算出することを特徴とする内視鏡システム。
  5.  請求項1において、
     前記撮像画像に基づき、前記特定部位を設定する特定部位設定部と、
     をさらに含むことを特徴とする内視鏡システム。
  6.  請求項5において、
     前記特定部位設定部は、前記撮像画像上の前記特定部位をユーザが視認可能に呈示することを特徴とする内視鏡システム。
  7.  請求項5において、
     前記特定部位設定部は、自動で、前記特定部位を設定する識別器を有することを特徴とする内視鏡システム。
  8.  請求項5において、
     前記撮像画像は、複数の色情報に分離可能であり、
     前記特定部位設定部は、前記複数の色情報に含まれる、第1の色情報を用いて、前記特定部位の設定を行い、
     前記内腔構造算出部は、前記複数の色情報に含まれ、かつ前記第1の色情報を含まない第2の色情報を用いて、前記3次元構造と、前記3次元構造寸法情報とを出力することを特徴とする内視鏡システム。
  9.  請求項5において、
     前記特定部位設定部は、複数の設定モードから選択可能であることを特徴する内視鏡システム。
  10.  請求項5において、
     前記特定部位設定部は、前記特定部位の設定を同一画像の異なる設定モードまたは、別画像で、やり直し可能であることを特徴とする内視鏡システム。
  11.  請求項1において、
     前記実寸法決定情報取得部は、前記撮像部の位置及び向きに関する情報のうち少なくとも一部の情報を抽出する位置センサの出力に係る情報を、前記実寸法決定情報として取得することを特徴とする内視鏡システム。
  12.  請求項1において、
     前記実寸法決定情報取得部は、前記撮像部から前記被写体までの距離の情報を抽出する距離計測部の出力に係る情報を、前記実寸法決定情報として取得することを特徴とする内視鏡システム。
  13.  請求項1において、
     前記実寸法決定情報取得部は、前記撮像画像に映り、寸法が既知の比較対象物の前記撮像画像上の大きさを前記実寸法決定情報として取得することを特徴とする内視鏡システム。
  14.  請求項1において、
     前記内腔構造算出部は、所定の時間内に撮影された前記撮像画像と、前記所定の時間内に取得された前記実寸法決定情報とに基づいて、前記3次元構造と、前記3次元構造寸法情報を出力することを特徴とする内視鏡システム。
  15.  請求項1において、
     前記寸法推定部は、前記特定部位の周囲の前記内腔に平行な面に投影した対象物の前記実寸法を前記特定部位寸法情報として出力することを特徴とする内視鏡システム。
  16.  請求項1において、
     前記寸法推定部は、前記特定部位の周囲の前記内腔に垂直な方向の対象物の前記実寸法を前記特定部位寸法情報として出力することを特徴とする内視鏡システム。
  17.  請求項1において、
     前記内腔構造算出部は、前記実寸法決定情報に基づいて、前記実寸法が設定された3次元構造情報を算出することを特徴とする内視鏡システム。
  18.  請求項1において、
     前記寸法推定部は、前記特定部位寸法情報と、前記特定部位の前記3次元構造に係る情報を関連づけて出力することを特徴とする内視鏡システム。
  19.  被写体となる内腔に挿入される挿入部に設けられた単眼の撮像部によって取得された前記被写体の撮像画像と、前記内腔の少なくとも一部に係る実寸法を決定する情報である実寸法決定情報と、を取得する取得部と、
     前記撮像画像と前記実寸法決定情報に基づいて、前記内腔の3次元構造と、前記3次元構造の少なくとも一部に係る実寸法を決定する情報である3次元構造寸法情報とを算出する内腔構造算出部と、
     前記3次元構造寸法情報に基づき、前記3次元構造における特定部位の実寸法である特定部位寸法情報を出力する寸法推定部と、を含むことを特徴とする内腔構造算出システム。
  20.  被写体となる内腔に挿入される挿入部に設けられた単眼の撮像部によって取得された前記被写体の撮像画像を取得することと、
     前記内腔の少なくとも一部に係る実寸法を決定する情報である実寸法決定情報を取得することと、
     前記撮像画像と前記実寸法決定情報に基づいて、前記内腔の3次元構造と、前記3次元構造の少なくとも一部に係る実寸法を決定する情報である3次元構造寸法情報とを算出することと、
     前記3次元構造寸法情報に基づき、前記3次元構造における特定部位の実寸法である特定部位寸法情報を出力することと、を含む内腔構造情報の作成方法。
PCT/JP2021/017141 2021-04-30 2021-04-30 内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法 WO2022230160A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2021/017141 WO2022230160A1 (ja) 2021-04-30 2021-04-30 内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法
JP2023516988A JPWO2022230160A1 (ja) 2021-04-30 2021-04-30
CN202180097593.6A CN117241718A (zh) 2021-04-30 2021-04-30 内窥镜***、内腔构造计算***以及内腔构造信息的制作方法
US18/384,975 US20240057847A1 (en) 2021-04-30 2023-10-30 Endoscope system, lumen structure calculation system, and method for creating lumen structure information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/017141 WO2022230160A1 (ja) 2021-04-30 2021-04-30 内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/384,975 Continuation US20240057847A1 (en) 2021-04-30 2023-10-30 Endoscope system, lumen structure calculation system, and method for creating lumen structure information

Publications (1)

Publication Number Publication Date
WO2022230160A1 true WO2022230160A1 (ja) 2022-11-03

Family

ID=83848155

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/017141 WO2022230160A1 (ja) 2021-04-30 2021-04-30 内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法

Country Status (4)

Country Link
US (1) US20240057847A1 (ja)
JP (1) JPWO2022230160A1 (ja)
CN (1) CN117241718A (ja)
WO (1) WO2022230160A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10248806A (ja) * 1997-03-12 1998-09-22 Olympus Optical Co Ltd 計測内視鏡装置
JP2008048906A (ja) * 2006-08-24 2008-03-06 Olympus Medical Systems Corp 医療用画像処理装置及び医療用画像処理方法
WO2008136098A1 (ja) * 2007-04-24 2008-11-13 Olympus Medical Systems Corp. 医療用画像処理装置及び医療用画像処理方法
WO2017057330A1 (ja) * 2015-09-28 2017-04-06 オリンパス株式会社 内視鏡システム及び画像処理方法
JP2018197674A (ja) * 2017-05-23 2018-12-13 オリンパス株式会社 計測装置の作動方法、計測装置、計測システム、3次元形状復元装置、およびプログラム
JP6478136B1 (ja) * 2017-06-15 2019-03-06 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
US20200281454A1 (en) * 2019-02-26 2020-09-10 Optecks, Llc Colonoscopy system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10248806A (ja) * 1997-03-12 1998-09-22 Olympus Optical Co Ltd 計測内視鏡装置
JP2008048906A (ja) * 2006-08-24 2008-03-06 Olympus Medical Systems Corp 医療用画像処理装置及び医療用画像処理方法
WO2008136098A1 (ja) * 2007-04-24 2008-11-13 Olympus Medical Systems Corp. 医療用画像処理装置及び医療用画像処理方法
WO2017057330A1 (ja) * 2015-09-28 2017-04-06 オリンパス株式会社 内視鏡システム及び画像処理方法
JP2018197674A (ja) * 2017-05-23 2018-12-13 オリンパス株式会社 計測装置の作動方法、計測装置、計測システム、3次元形状復元装置、およびプログラム
JP6478136B1 (ja) * 2017-06-15 2019-03-06 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
US20200281454A1 (en) * 2019-02-26 2020-09-10 Optecks, Llc Colonoscopy system and method

Also Published As

Publication number Publication date
CN117241718A (zh) 2023-12-15
JPWO2022230160A1 (ja) 2022-11-03
US20240057847A1 (en) 2024-02-22

Similar Documents

Publication Publication Date Title
KR102558061B1 (ko) 생리적 노이즈를 보상하는 관강내 조직망 항행을 위한 로봇 시스템
JP7214757B2 (ja) 生理学的ノイズを検出する管腔網のナビゲーションのためのロボットシステム及び方法
CN108430373B (zh) 用于在患者体内跟踪内窥镜的位置的装置和方法
JP5676058B1 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP5715311B2 (ja) 内視鏡システム
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
JP5715312B2 (ja) 内視鏡システム
WO2021166103A1 (ja) 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法
JP5750669B2 (ja) 内視鏡システム
JP6141559B1 (ja) 医療装置、医療画像生成方法及び医療画像生成プログラム
JP7392654B2 (ja) 医療用観察システム、医療用観察装置及び医療用観察方法
WO2012014438A1 (ja) 内視鏡観察を支援する装置および方法、並びに、プログラム
JP7385731B2 (ja) 内視鏡システム、画像処理装置の作動方法及び内視鏡
CN111067468A (zh) 用于控制内窥镜***的方法、设备及存储介质
JP6022133B2 (ja) 医療装置
JP7441934B2 (ja) 処理装置、内視鏡システム及び処理装置の作動方法
US9345394B2 (en) Medical apparatus
CN117204791A (zh) 一种内窥镜器械引导方法以及***
US20240115338A1 (en) Endoscope master-slave motion control method and surgical robot system
WO2022230160A1 (ja) 内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法
US20220022964A1 (en) System for displaying an augmented reality and method for generating an augmented reality
WO2024029502A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
JP7506264B2 (ja) 画像処理装置、内視鏡装置及び画像処理装置の作動方法
AU2022341233A1 (en) Method of robust surface and depth estimation
JPWO2016039292A1 (ja) 内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21939319

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023516988

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202180097593.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21939319

Country of ref document: EP

Kind code of ref document: A1