WO2017068650A1 - 挿入体支援システム - Google Patents

挿入体支援システム Download PDF

Info

Publication number
WO2017068650A1
WO2017068650A1 PCT/JP2015/079575 JP2015079575W WO2017068650A1 WO 2017068650 A1 WO2017068650 A1 WO 2017068650A1 JP 2015079575 W JP2015079575 W JP 2015079575W WO 2017068650 A1 WO2017068650 A1 WO 2017068650A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
insert
tube
shape
image
Prior art date
Application number
PCT/JP2015/079575
Other languages
English (en)
French (fr)
Inventor
潤 羽根
藤田 浩正
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2017546316A priority Critical patent/JP6600690B2/ja
Priority to PCT/JP2015/079575 priority patent/WO2017068650A1/ja
Priority to EP15906656.2A priority patent/EP3366188A4/en
Publication of WO2017068650A1 publication Critical patent/WO2017068650A1/ja
Priority to US15/957,983 priority patent/US20180235716A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0048Detecting, measuring or recording by applying mechanical forces or stimuli
    • A61B5/0055Detecting, measuring or recording by applying mechanical forces or stimuli by applying suction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/027Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis characterised by the use of a particular data acquisition trajectory, e.g. helical or spiral
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display

Definitions

  • the present invention relates to an insertion support system for supporting operation of a tubular insertion system, such as a flexible endoscope, a catheter, etc., which is inserted into a tube to perform observation, repair, treatment, collection, and the like. About.
  • an endoscope is known as an example of a tubular insertion system for performing observation or the like by inserting into an arbitrary tube cavity or body cavity. If the insertion portion (or insertion body) of the endoscope is inserted into the tube, the position and curved shape of the insertion portion cannot be confirmed by direct viewing. For this reason, it is necessary to have skill and experience to determine the top-to-bottom direction and the positional relationship with respect to the organ (body cavity) by looking at the observation image captured by the endoscope inserted into the subject (patient).
  • the large intestine has a different shape and arrangement for each patient and can be deformed according to the shape of the insertion portion. Therefore, when judging the insertion status of the insertion part (position and curved shape in the large intestine, etc.) in consideration of the shape and arrangement of the large intestine while looking at the imaged screen, it depends on guesses based on the knowledge and experience of the operator. The ratio to do is large. For this reason, inexperienced operators are concerned that the skill of inserting and removing the insertion portion may be poor or take more time than necessary when there is no advice or any assistance from an expert. Even a skilled operator does not always have a correct guess, and there is a possibility of trial and error.
  • an ultrasonic endoscope system using a CT image is proposed.
  • the ultrasonic endoscope system generates test subject model image data using CT images and body axis direction data, and insert shape data, an ultrasonic tomographic image marker, a scope tip marker, and a three-dimensional living body.
  • Various guide images are generated and displayed by combining the tissue model data, the subject model image data, and the guidance image information.
  • the observation object whose shape and arrangement are different depending on individual differences of patients such as the large intestine and whose shape changes according to the insertion state of the inserted body is particularly two-dimensional or more acquired by CT images or ultrasonic images.
  • a three-dimensional image or a three-dimensional tomographic image is practically used for diagnosis of an endoscope.
  • the present invention creates tube-pipe information including shape information of the tube from the two-dimensional or more images or tomographic images of the tube to be observed in advance, and inserts an insertion portion such as an endoscope into the tube.
  • An object of the present invention is to provide an insert support system that is used as support information.
  • an insert support system includes a tube emptying system based on tube empty information obtained in advance including shape information of two or more dimensions related to a predetermined tube empty of a subject. Provides support information for insertion / extraction, observation, and treatment of the inserted body.
  • the tube information including the shape information of the tube is created from the two-dimensional image or tomographic image of the tube that is the observation target acquired in advance, and the insertion portion of the endoscope or the like is made into the tube. It is possible to provide an insert support system that is used as support information for insertion.
  • FIG. 1 is a diagram illustrating a configuration example of an insert support system provided in a tubular insertion system according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an external configuration of an endoscope equipped with the insertion support system.
  • FIG. 3 is a diagram illustrating the bending direction of the bending portion at the distal end of the insertion portion of the endoscope.
  • FIG. 4 is a diagram showing an external configuration of the CT apparatus.
  • FIG. 5 is a diagram illustrating a conceptual captured image of a subject from a specific viewpoint.
  • FIG. 6 is a diagram showing the concept of imaging by helical scanning in the CT apparatus.
  • FIG. 7 is a diagram showing an external configuration of the MRI apparatus.
  • FIG. 1 is a diagram illustrating a configuration example of an insert support system provided in a tubular insertion system according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an external configuration of an endoscope equipped with the insertion support system.
  • FIG. 3
  • FIG. 8 is a diagram illustrating a diagnosis state by the ultrasonic diagnostic apparatus.
  • FIG. 9 is a diagram showing an external configuration of the ultrasonic diagnostic apparatus and the probe used.
  • FIG. 10 is a diagram illustrating a configuration example of a curved shape detection device that detects the curved shape of the insertion body.
  • FIG. 11A is a diagram illustrating detection light that is guided in an optical fiber that is curved toward the side on which the fiber sensor is attached.
  • FIG. 11B is a diagram illustrating detection light that is guided in an optical fiber in a straight state.
  • FIG. 11C is a diagram illustrating detection light that is guided in an optical fiber that is curved to the side opposite to the side on which the fiber sensor is attached.
  • FIG. 11A is a diagram illustrating detection light that is guided in an optical fiber that is curved toward the side on which the fiber sensor is attached.
  • FIG. 11B is a diagram illustrating detection light that is guided in an optical fiber in a straight state.
  • FIG. 11C
  • FIG. 12 is a diagram illustrating an example in which an insertion body sensor is arranged in an opening of a lumen of a subject.
  • FIG. 13A is a diagram showing a tubular information integration processing unit provided in the subject information extraction unit.
  • FIG. 13B is a diagram illustrating a position information integration processing unit provided in the tubular information integration processing unit.
  • FIG. 13C is a diagram illustrating a tubular-air related information estimation generation unit provided in the tubular-air information integration processing unit.
  • FIG. 13D is a diagram illustrating a tube-pipe position related information estimation generation unit provided in the position information integration processing unit.
  • FIG. 14 is a diagram illustrating the lying position of the subject lying on the examination table.
  • FIG. 15 is a flowchart for explaining generation and output of operation support information in the insert support system.
  • FIG. 16 is a flowchart for explaining a process of correcting or updating information related to the tube empty state of the subject.
  • FIG. 17 is a flowchart for explaining the support information processing for presenting the estimated tubular state of the subject and the actually measured tubular state of the subject.
  • FIG. 18 is a diagram illustrating an example of the operation support information displayed on the display unit.
  • FIG. 19 is a diagram showing a screen displaying insertion state detection as a first display example.
  • FIG. 20 is a diagram showing a screen displaying insertion state detection as a second display example.
  • FIG. 21A is a diagram illustrating an example in which the presence / absence of operation support information is switched based on the proximity relationship between the distal end portion of the insertion body and the specific part as a third display example.
  • FIG. 21A is a diagram illustrating an example in which the presence / absence of operation support information is switched based on the proximity relationship between the distal end portion of the insertion body and the specific part as a third display example
  • FIG. 21B is a diagram illustrating an example in which the presence / absence of operation support information is switched based on the proximity relationship between the distal end portion of the insertion body and the specific part, as a third display example.
  • FIG. 22 is a diagram illustrating an example in which a captured image and a reconstructed image are displayed side by side on a screen.
  • FIG. 23 is a diagram illustrating an example in which the shape of the large intestine is deformed by the inserted insert.
  • FIG. 24 is a diagram illustrating an example of how to generate support information and support information.
  • FIG. 1 the structural example of the insertion body assistance system with which the tubular insertion system which concerns on one Embodiment of this invention is equipped is shown.
  • FIG. 2 shows an external configuration of an endoscope equipped with an insertion support system
  • FIG. 3 is a diagram showing a bending direction of a bending portion at the distal end of the insertion portion of the endoscope.
  • a medical flexible endoscope upper gastrointestinal tract, large intestine, ultrasound, cystoscope, nephroscope, etc.
  • the present embodiment is not limited to a medical flexible endoscope, and any other type of industrial endoscope may be used as long as it is a tubular insertion system that performs insertion and treatment by operating an insert.
  • the present invention can be generally applied to a tubular insertion system in which a part of the shape can be changed in the longitudinal direction, such as a rigid endoscope having a partial bending mechanism, a manipulator (robot arm), and a catheter.
  • a tube cavity (body cavity or lumen) as an observation object of an endoscope is described as a digestive organ, a bronchus, a urinary organ, and the like, and here, the large intestine is described as an example.
  • the large intestine has a different shape and arrangement for each subject, and the shape of the large intestine can change with the passage of time, insertion of equipment, and the like.
  • the subject is assumed to be a patient to be diagnosed or treated, but may be a patient model or organ model for simulation instead of the patient.
  • the apparatus etc. which have a hollow and a hollow part inside may be sufficient even if it does not specialize in medical treatment.
  • FIG. 2 is a diagram illustrating a schematic configuration example of the endoscope system.
  • FIG. 3 is a diagram conceptually showing an operation direction by an operation in the insert.
  • An endoscope system (tubular insertion system) 100 according to this embodiment is a tubular insertion device that is inserted into a body cavity to be observed.
  • the endoscope system 100 includes an endoscope 13 that is inserted into a subject and picks up an image by an image pickup unit provided at a distal end of an insertion body (so-called insertion portion), and image processing that performs image processing of the picked-up observation image.
  • Unit 14 (so-called video processor), a monitor (display unit) 16 that displays an observation image from the image processing unit 14, a light source device 18 that emits illumination light to the endoscope 13, and a shape sensor (center main body unit) ) 15 and a control device 19 for controlling the entire endoscope system. It is assumed that the endoscope of the present embodiment is provided with commonly used functions and equipment.
  • the endoscope 13 includes an operation unit 30 provided with a grip 31 that is held by an operator, an elongated tubular flexible insert 20 connected to the proximal end side of the operation unit 30, and
  • the operation unit 30 is connected to both the light source device 18 and the image processing unit 14, and has a so-called universal cable 27 including a so-called light guide composed of a signal line for transmitting an image and an optical fiber for guiding illumination light. Yes.
  • the grip unit 31 is gripped by an operator who operates the endoscope 13 (operators such as doctors), and the bending operation unit 36 and the operation button 34 disposed on the upper part are operated.
  • an ID tag 37 is provided in the vicinity of the upper portion of the operation unit 30, and a unique model number, manufacturing number, and the like for identification are recorded.
  • the ID tag 37 is used to determine whether or not support is possible and to set unique parameters when the endoscope 13 is connected to the insertion support system 1.
  • This unique parameter is stored in advance in the storage unit 6 to be described later, and is appropriately read and set in the control device 19 at the time of initialization. Even if the endoscope is determined not to be supported by the insert support system 1, normal use without support is possible. Even when support is possible, according to the contents of the ID tag 37, the support information that can be provided and the accuracy and level range of the support information that can be provided are set as unique parameters.
  • An example of information written in such an ID tag is shown in Table 1. It is not always necessary to write all the information described in Table 1 to the ID tag, and it is sufficient that at least information necessary for starting the support system and generating support information is written.
  • the insert support system determines support information that can be provided.
  • the determined support information that can be provided may be displayed, for example, by a pull-down menu or the like by an operator, and may be selected as necessary. As a result, the operator can understand what kind of support information is available, and can set the desired support information to be selectively output.
  • settings are made as necessary to generate support information that can be provided or support information that is determined to be provided. This is the setting of sensors and image equipment for generating and acquiring necessary information, determining the procedure for receiving information, selecting the process for generating support information from the received information, There are settings such as. Such setting may be performed when it is desired to generate support information. However, since the process is completed at the first time when it is started, the process is simple and does not take time and effort.
  • the insertion body 20 is integrally formed so that the flexible tube portion 25, the bending portion 23, and the distal end hard portion 21 are connected from the proximal end portion side toward the distal end portion side.
  • a light guide that is an optical fiber (not shown) that guides at least illumination light along a long direction, and a shape sensor 15 that detects the bending state of the insert 20, which will be described later, are detected.
  • a light conducting member for light for example, an optical fiber is provided in parallel.
  • the optical fiber for detection light is fixed integrally with the insert 20 so that the bending state of the insert 20 can be detected.
  • the optical fiber for detection light is preferably arranged on the central axis along the longitudinal axis direction of the insert 20, but is not particularly limited. In the following description, an optical fiber that guides illumination light is referred to as a light guide for distinction.
  • an insertion port portion 35 of a forceps channel that penetrates the inside of the insertion body 20 to the channel opening on the distal end side and inserts various forceps is disposed between the proximal end side of the insertion body 20 and the operation unit 30.
  • the illumination window is configured by an optical lens and irradiates the observation target area with illumination light guided from the light source device 18 through the light guide.
  • the distal end hard portion 21 is formed in a substantially cylindrical shape by a hard member, and the distal end surface thereof is not illustrated, but at least an illumination window that irradiates illumination light, an observation window and an optical for imaging an observation target area.
  • An imaging unit 39 including a system, a nozzle for ejecting a fluid including a cleaning liquid or a gas, and a channel opening are provided.
  • the operation unit 30 includes a bending operation unit 36 (UD knob, LR knob, etc.) for bending the bending unit 23 perpendicular to the insertion direction, for example, in the vertical and horizontal directions, imaging, air supply / water supply, Various operation buttons 34 for performing suction and the like are provided.
  • the bending portion 23 is composed of a plurality of node rings (not shown), and is connected in the longitudinal axis direction of the insertion body 20 with the rotation shafts connecting the node rings alternately shifted by 90 ° and orthogonal to each other.
  • the distal node ring is connected to the bending operation unit 36 disposed in the operation unit 30 by a plurality of wires, and the wire is pulled according to the operation of the bending operation unit 36, and each of the nodes is centered on each rotation axis.
  • the node ring is appropriately rotated to form a circular arc as a whole, and as a result, the bending portion is bent.
  • the bending operation unit 36 is not limited to a manual knob, and may be an electric type that uses a driving force of a motor for wire pulling.
  • the flexible tube portion 25 has flexibility and can be bent by an external force.
  • the operator operates the bending operation section 36 to bend the bending section 23 in a desired direction, and further pushes and pulls and twists using the flexibility of the flexible tube section 25, so that the subject is a subject. It can be freely inserted into a patient's digestive organs, bronchus, urinary organs, and other tracts. Further, by bending the bending portion 23, the direction of the distal end hard portion 21 is changed, the observation object is captured in the observation field of view, and the illumination light is illuminated on the observation object.
  • the shape sensor 15 has a detected portion 38 for detecting at least one bent state at a predetermined position of the optical fiber arranged in the insert 20.
  • a light source (described later) of the shape sensor 15 emits detection light having a wavelength different from that of the illumination light through the universal cable 27 (optical fiber).
  • the shape sensor 15 emits detection light into the optical fiber of the insert 20, detects the detection light affected by the detected portion 38, and detects the shape of the insert 20 at that time.
  • the endoscope 13 is further provided with an insert sensor 86 and an operation amount sensor, which will be described later, as the sensor unit 28.
  • the operation amount sensor is provided in the operation unit 30 described above, and detects the movement amounts of a plurality of wires connected to the bending operation unit 36. The amount of movement of these wires changes according to the amount of operation of the bending operation section 36, and the bending direction and the bending state of the bending section 23 can be detected from the amount of movement of the wire.
  • the sensor unit 28 detects / estimates at least one of arrangement information including the shape and posture of the insertion body 20 or information (position / orientation / posture) regarding the distal end portion, and sensor information obtained from the sensor unit 28.
  • the operation support information can be generated from the insert information based on the image information and the subject information based on the image equipment information. At least one of the arrangement including the shape and posture of the insertion body 20 and the information (position / orientation / posture) regarding the distal end portion is used as part of the insertion body information and the operation support information. Therefore, the operator can know the position-related information of the insert 20 and how far the tube 20 has been inserted, or how to proceed with the insertion of the insert 20 in the future, more accurately than when there is no such information.
  • the insertion property and operability of the insert can be improved by combining it with the subject information.
  • the amount of advance / retreat movement A1 in the insertion / removal direction of the insert 20 inserted into the tube and the amount of twist (rotation) A2 accompanying the rotation of the operation unit 30 are shown.
  • sensor information relating to the bending direction and the amount of movement thereof is generated in the up and down direction A3 and the left and right direction A4 of the bending unit 23 by the operation of the bending operation unit 36.
  • the endoscope 13 may be equipped with sensors and actuators other than the described sensors.
  • the sensor information is detected or generated from one or more mounted sensors, and the obtained sensor information may be composed of a plurality of types of information.
  • the insert support system 1 is provided in the endoscope system 100 and provides support information to doctors who are operators when inserting / extracting the patient as the subject 5, and further provides diagnosis and treatment. Support for observation and treatment.
  • the insertion support system 1 includes image information captured by the imaging unit of the endoscope and is detected from each sensor to be described later when performing operations for insertion / extraction of the endoscope 13 and treatment. Sensor information and the image acquired by the imaging device and information generated based on the image and judgments made in advance such as image-related information, such as judgments added to the information, and operation support information is generated and provided to the operator To do.
  • the insert support system 1 mainly includes a subject information extraction unit 2, an insert information extraction unit 3, a support information generation unit 4, a storage unit 6, an output unit (for example, a display unit) 16, and will be described later. And a plurality of information acquisition units.
  • the output unit 16 of the insertion support system is also used as the display unit of the endoscope system 100.
  • the output from the output unit 16 is not limited to the image information (operation support information) displayed on the display unit, and has a function of outputting various information to other devices. Of course, it may be provided separately.
  • the plurality of information acquisition units acquire various types of subject information regarding the subject 5 to be observed from the outside.
  • the information acquisition unit of the present embodiment includes an imaging information acquisition unit 7, a sensor information acquisition unit 8, an external information acquisition unit 9, and an image device information acquisition unit 10.
  • these information acquisition units may be incorporated as part of the subject information extraction unit 2 and the insert information extraction unit 3.
  • the imaging information acquisition unit 7 captures captured image information including an image of the subject 5 captured by the imaging unit 39 provided on the distal end side of the insertion body 20 and sends the captured image information to the subject information extraction unit 2.
  • the captured image information is image information related to the vacuum of the subject 5.
  • the sensor information acquisition unit 8 acquires sensor information including insertion body information detected by the shape sensor 15, an insertion body sensor 86 described later, and an operation amount sensor, and sends the sensor information to the insertion body information extraction unit 3.
  • the external information acquisition unit 9 acquires external information about the subject 5 obtained via an external device or LAN prior to endoscopic observation or endoscopic diagnosis, and sends it to the insert information extraction unit 3. .
  • the image device information acquisition unit 10 acquires image device information such as a three-dimensional cross-sectional image of the subject 5 from an image device 11 to be described later prior to endoscopic observation, and sends it to the subject information extraction unit 2.
  • Each information acquisition unit may also acquire information related to operation support other than the subject information and insert information.
  • the insert support system 1 or the insert support system 1 In response to a request from, an external device is used to perform processing such as extraction / processing as appropriate.
  • Information taken from outside by the insert support system 1 is referred to as primary information, and information generated in the insert support system 1 or generated by an instruction from the system 1 is referred to as secondary information.
  • the primary information and the secondary information are simply referred to as information.
  • information obtained in advance on the imaging device 11 is assumed to be primary information even if it is processed in advance for the insert support system 1.
  • the image device information acquisition unit 10 and the image device 11 are indispensable. Other than that, there is at least one device, etc., and the insert information is extracted by the insert information extraction unit 3 by combining the information from these devices and the information from the image device information acquisition unit 10. ⁇ It only needs to be generated.
  • the subject information extraction unit 2 extracts and generates subject information such as the shape of the subject 5 from the acquired sensor information and image equipment information.
  • the inserted body information extracting unit 3 extracts and generates inserted body information indicating an insertion state / shape and the like in the subject 5 from the acquired sensor information and external information.
  • the support information generation unit 4 generates operation support information to be described later by selecting and variously processing the insert information from the subject information extraction unit 2 and the insert information extraction unit 3.
  • the storage unit 6 includes information about the subject and the operator, information obtained from a plurality of information acquisition units, intermediate generation information in the subject information extraction unit 2, the insert information extraction unit 3, and the support information generation unit 4, Support information and unique parameters for various endoscopes and sensors are stored.
  • a plurality of storage units 6 may be arranged according to the purpose, or may be arranged outside and connected via a LAN, the Internet, or the like.
  • the output unit 16 includes a display unit that displays the operation support information from the support information generation unit 4 as one form of output.
  • the display of support information is one form of output, and there are various other output forms.
  • the way of presenting information includes various forms such as voice, vibration, and light.
  • the operation support information is converted or changed according to the output form. It is also possible to control the actuator based on the support information.
  • FIG. 4 is a diagram showing an external configuration of the CT apparatus
  • FIG. 5 is a diagram showing a conceptual captured image of the subject from a specific viewpoint
  • FIG. 6 is a diagram showing a concept of imaging by helical scanning in the CT apparatus. is there.
  • FIG. 7 is a diagram showing an external configuration of the MRI apparatus.
  • FIG. 8 is a diagram illustrating a diagnosis status by the ultrasonic diagnostic apparatus
  • FIG. 9 is a diagram illustrating an external configuration of the ultrasonic diagnostic apparatus and the probe used.
  • the imaging device 11 used in the present embodiment is a known device, and for example, a CT apparatus 51, an MRI apparatus 61, an ultrasonic diagnostic apparatus 65, and the like can be used. From these image devices 11, two or more-dimensional image information related to the lumen of the subject 5 to be observed is acquired immediately before the endoscope observation. Alternatively, image information used for other purposes such as diagnosis may be reused immediately before endoscopic observation. Image information that can be used in the present embodiment includes information shown in Table 2 below. However, some information cannot be acquired depending on the image equipment 11, and such information is excluded.
  • the CT apparatus 51 can observe the entire observation target range through a collimator 56 from a specific direction outside the subject 5 or from the viewpoint of the imaging unit 55 as shown in FIG.
  • the image information 57 from one direction or viewpoint from the whole can be acquired.
  • a stereoscopic image and an arbitrary cross-sectional shape can be reconstructed by a helical scan 58 that moves the viewpoint (subject) at the time of imaging.
  • the ultrasonic diagnostic apparatus will be described.
  • information on the current state can be sequentially acquired while the insertion body 20 is inserted to observe the subject 5.
  • the ultrasonic diagnostic apparatus 65 includes an apparatus main body 66, probes 67 (67a, 67b), and a monitor unit 68, and is movably mounted on a caster mount 69.
  • the apparatus main body 66 includes a transmission / reception unit that generates and transmits / receives ultrasonic waves, a control unit, a signal processing unit that processes Doppler signals, an image processing unit, a recording unit, a keyboard, and the like. It consists of the input part by.
  • a convex probe 67a that emits ultrasonic waves radially
  • a linear probe 67b that emits ultrasonic waves linearly are shown.
  • the posture is similar to that when observing the in-vivo image on the imaging device 11. If the sleeping body has a different orientation, the arrangement of the organs may vary slightly depending on the gravity, so if necessary, the image equipment information will be appropriately adjusted so that the image corresponds to the endoscopic observation. , Make corrections.
  • an imaging device corresponding to the subject is used.
  • a fluoroscopic image can be obtained using an infrared imaging device.
  • FIG. 10 is a diagram illustrating a configuration example of the shape sensor 15 that detects the curved shape of the insertion body 20.
  • 11A, 11B, and 11C are conceptual diagrams for explaining the light transmission amount when the fiber sensor attached to the optical fiber is bent.
  • FIG. 12 is a diagram illustrating an example in which the insertion body sensor 86 is disposed in the opening (for example, the oral cavity) 85 of the lumen of the subject 5.
  • the sensor information in the present embodiment is information including the shape and insertion distance (insertion amount) of the insert 20 obtained by processing the information detected by the shape sensor 15, the insert sensor 86, and the operation amount sensor.
  • the shape sensor 15 shown in FIG. 10 arranges at least one detected portion 38 on an optical fiber 72 provided along the longitudinal axis direction of the insert 20 of the endoscope 13,
  • the curved shape of the insertion body 20 is detected from the detected curvature (bending amount).
  • the shape sensor 15 includes a sensor unit main body 71, a detected unit 38, and a control unit 75.
  • the control unit 75 includes a shape calculation unit 74 and comprehensively controls each component in the sensor unit main body 71.
  • the optical fiber 72 is juxtaposed with the light guide (optical fiber) that guides the illumination light.
  • a light source 76 In the sensor unit main body 71, a light source 76, a light projecting lens 77, an isolator 78, a reflection mirror 79, and a first condenser lens 80 are arranged from the side that emits on the optical axis. On the optical axis branched by the reflection mirror 79, a second condenser lens 81 and a light detection unit 82 are arranged.
  • the light source 76 is composed of, for example, an LED, and emits detection light having at least one wavelength different from the illumination light used in the endoscope. In the case where a plurality of detected portions 38 are used, a configuration using detection light having a plurality of different wavelengths is preferable.
  • the isolator 78 allows the detection light emitted from the light source 76 to pass therethrough and prevents the detection light returned by the reflection of the reflection mirror 79 from passing, so that the light does not return to the light source 76.
  • the detection light emitted from the condensing lens 80 of the sensor unit main body 71 is incident from the proximal end side of the optical fiber 72 and guided.
  • the guided detection light is reflected by the reflection portion 73 provided on the distal end side of the optical fiber 72, passes through the optical fiber 72 again as detection light, and returns to the sensor portion main body 71.
  • the detection light is bent and branched by the reflection mirror 79 and received by the light detection unit 82.
  • the light detection unit 82 is configured by a photoelectric conversion element or the like, and outputs a shape signal based on the light intensity of detection light that changes due to bending. Based on the shape signal from the light detection unit 82, the shape calculation unit 74 actually calculates and outputs the curvature of the bending shape (the size of the arc) of the bending unit 23.
  • FIG. 11A shows the detection light guided in the optical fiber 72 curved to the side to which the detected portion 38 is attached by an arrow
  • FIG. 11B shows the detection light guided in the straight optical fiber 72.
  • Light is indicated by an arrow
  • FIG. 11C indicates detection light that is guided through the optical fiber 72 curved to the side opposite to the side on which the detected portion 38 is attached.
  • the detected portion 38 is attached to the outer peripheral surface of a specific portion of the optical fiber 72 and absorbs the guided detection light to reduce the light intensity, that is, reduce the light transmission amount. Yes. Therefore, the amount of light transmitted decreases as the amount of light irradiated to the detected portion 38 increases. In other words, when the optical fiber 72 changes from the straight state shown in FIG. 11B to any one of the bent states shown in FIG. 11A or FIG. 11C, a change in the light transmission amount of the detection light is also generated so as to be synchronized. To do.
  • the change in the light transmission amount of the detection light becomes a change in the light intensity received by the light detection unit 82, and the shape calculation unit 74 generates light from the detection signal based on the bending direction of the detection unit 38 and the change in the light amount.
  • the curvature of the fiber 72 is calculated. In these examples, a curved state in which a lot of light shown in FIG. 11A is reflected on the side surface of the optical fiber has the largest light transmission amount, and a part of the light shown in FIG. The light transmission amount decreases in the order of the state and the curved state in which a large amount of light shown in FIG.
  • the shape sensor 15 is a light amount change detection type fiber sensor in which the amount of light passing through the optical fiber 72 changes depending on the curved shape of the optical fiber 72.
  • This method is a sensor suitable for mass-produced products because the detection unit can be configured at low cost.
  • FIG. 12 shows a configuration example of the insert sensor 86.
  • the insert sensor 86 optically reads a mark (not shown) indicating the position provided on the outer peripheral surface of the insert 20 with an optical sensor or the like, and determines the amount of insertion and rotation of the insert 20 relative to the body cavity (lumen). To detect.
  • the sensor unit 28 used in this embodiment is the shape sensor 15, the insert sensor 86, and the operation amount sensor. By mounting these sensors, the following sensor information can be obtained.
  • Insert body curved shape 2) Insert amount of insert, 3) Rotation (twisting) amount, 4) The amount of bending operation of the bending portion at the distal end of the insertion body, 5) The curved shape of the insert relative to the subject having a lumen; 6) Force applied to the tip of the insert.
  • the sensor information 2) to 4) is information obtained directly from each sensor, and the sensor information 1), 5), 6) is information obtained by signal processing.
  • the sensor information of 1) can calculate a curved shape within a predetermined range by combining curved information from the shape sensor.
  • the sensor information 5) can be calculated using the sensor information 1) to 3), and the sensor information 6) can be calculated using the sensor information 1) and 4).
  • the sensors used are not limited to the shape sensor, the insert sensor, and the operation amount sensor, and are not particularly limited as long as equivalent information can be acquired. Also good. Of course, a plurality of sensors of the same type may be arranged as sensors for obtaining sensor information. Furthermore, as long as it is information that can be used for the insertion support system 1, the sensor is not limited to the information described above, and another type of sensor for obtaining different types of information may be used.
  • External information described in Table 3 is given as external information obtained from an external device through the external information acquisition unit 9.
  • Such external information is not necessarily essential for the insert support system 1 of the present embodiment, but is often useful and may be selected according to the purpose and used as appropriate.
  • information that can be acquired in advance may be stored in the storage unit 6, updated as appropriate, and taken out when necessary.
  • the subject information extracting unit 2 is mainly required for generating operation support information mainly for image device information (preliminary image device information) related to the subject 5 obtained from the image device 11 in advance for endoscopic observation. Subject information is extracted and generated. Further, the information obtained from the external information acquisition unit 9 may be extracted and generated together.
  • image device secondary information the secondary information generated by the image device secondary information generation unit 12 based on the image device information obtained from the image device 11 is referred to as “image device secondary information”.
  • Image device information is not always information that can be used for operation support.
  • information such as image information and lesions from a specific viewpoint is useful, but when they are not included in the image device information, they are generated as image device secondary information by the image device secondary information generation unit, Target operation support information can be generated.
  • the image equipment secondary information includes the following. However, information already acquired as image device information is excluded. 1) Image secondary information: an image reconstructed so as to correspond to the image of the imaging region imaged by the imaging unit when the imaging unit is provided in the tubular insert 20... Reconstruct by specifying the position and orientation, 2) Secondary information on shape and arrangement, 3) Specific site secondary information.
  • This image equipment secondary information includes tube shape / arrangement secondary information indicating tube shape or arrangement at a specific viewpoint / cross section.
  • the image equipment secondary information generation unit 12 may generate the secondary information based on the designation of the generation information from the insert information extraction unit 3. For example, an image corresponding to the captured image may be reconstructed from the image device information based on the captured image by the imaging unit 39 and the position / orientation of the tip of the insertion body by each sensor. Further, the generation of the image device secondary information does not necessarily have to be performed by the subject information extraction unit 2, and the generation may be left to an external apparatus including the image device 11.
  • the image equipment secondary information includes the hollow shape and the arrangement secondary information
  • the specific viewpoint of the image secondary information for reconstructing the image is matched with the viewpoint of the operator or the viewpoint of the imaging unit provided in the insert. This improves the insertability and operability of the insert.
  • the viewpoint of the specific part easy to understand, the way to pass through the specific part and the placement of the insert suitable for work such as observation / diagnosis / treatment at the specific part are further improved.
  • the body insertability and operability will be improved.
  • the shape and arrangement of the tube to be observed cannot be directly observed from the outside of the subject, the shape of the tube and the secondary information on the arrangement can be presented. Compared to the case where there is no information on the approach position, it is possible to know more accurately.
  • the secondary information of the image device does not include the specific part secondary information
  • the operator knows the specific part secondary information in advance, if the operator can receive it as operation support information as necessary, especially when the number and types of specific parts are large, The possibility of oversight can be reduced, and the insertability and operability of the insert are improved.
  • Image device secondary information corresponding to the captured image is generated from the shape / arrangement information of the insert 20 or the tip information and the image device information.
  • the image equipment secondary information includes tube shape / arrangement secondary information indicating the shape / arrangement of the tube empty at a specific viewpoint / cross section, and the insert information includes a specific viewpoint.
  • the shape / arrangement information of the insert in the cross section is included, and the operation support information includes image information obtained by combining the tubular shape / arrangement secondary information and the shape / arrangement information of the insert. Since this operation support information includes image information that combines the tube shape / arrangement secondary information and the shape / location information of the insert, the relative positional relationship of the insert with respect to the tube can be confirmed at a glance. Insertability and operability are improved.
  • the above-described subject information and operation support information include a site requiring attention for insertion / removal of the insertion body 20, that is, a specific site that is a target site to which attention should be paid when inserting / removing and a site to be observed such as observation / diagnosis / treatment.
  • Specific part secondary information corresponding to is included. This is because an endoscope image corresponding to an endoscopic image is displayed together with information such as a display / display of a range / shape / size of a specific part and contents / work / attention points as operation support information. This makes it easy to identify and work on a specific part on the captured image, and improves the insertability and operability of the insert.
  • the insert information extraction unit 3 uses the sensor information related to the insert 20 input from the sensor information acquisition unit 8 to extract and generate insert information necessary for generating the operation support information.
  • this sensor information is information detected from the shape sensor 15, the insertion body sensor 86, and the operation amount sensor.
  • the external information related to the insert 20 obtained from the external information acquisition unit 9 may be used, or may be extracted and generated in combination with the external information and sensor information.
  • the insert information extraction unit 3 corrects or updates the subject information in real time based on at least one of the imaging device information (captured image information) or the sensor information.
  • the imaging device information captured image information
  • the sensor information the information about the tube that is different from the image information, which is prior information, can be obtained, or information about the tube can be obtained every moment according to the insertion or operation. To do.
  • FIG. 13A is a diagram showing a tubular information integration processing unit 91 provided in the subject information extraction unit 2
  • FIG. 13B is a diagram showing a position information integration processing unit 92 provided in the tubular information integration processing unit 91.
  • FIG. 13C is a diagram showing the tube-pipe related information estimation generation unit 93 provided in the tube-pipe information integration processing unit 91
  • FIG. 13D is a tube-pipe position-related information estimation generation provided in the position information integration processing unit 92.
  • FIG. 13A is a diagram showing a tubular information integration processing unit 91 provided in the subject information extraction unit 2
  • FIG. 13B is a diagram showing a position information integration processing unit 92 provided in the tubular information integration processing unit 91.
  • FIG. 13C is a diagram showing the tube-pipe related information estimation generation unit 93 provided in the tube-pipe information integration processing unit 91
  • FIG. 13D is a tube-pipe position-related information estimation generation provided in the position information integration processing unit 92.
  • a subject information extraction unit 2 is provided with a tube / pipe information integration processing unit 91 for integrating information related to the tube / space of the subject 5 included in the imaging device information and the sensor information.
  • the tube information integration processing unit 91 may be arranged in parallel with the subject information extraction unit 2.
  • the information to be integrated is not particularly limited as long as it is information related to the tube. For example, when the same state is different notation, there is duplication or lack of information, or there is a discrepancy between the state and the notation, by integrating these to match the predetermined expression method, Information is concise and easy to handle.
  • position related information related to the position of a specific part is particularly mentioned.
  • This position related information includes the shape, size, position, orientation, etc. of the specific part.
  • the position information integration processing unit 92 provided in the tubular information integration processing unit 91 shares the coordinate system of these position related information and integrates the position information. By integrating the coordinate system of position related information into one, it becomes possible to process and display both pieces of position information using a common coordinate system.
  • the position information at the arrangement interval necessary for generating or presenting the support information is lost, or if the specific processing is not performed, it is insufficient for generating the support information. It may be location information.
  • a tube-related information estimation generation unit 93 is provided in the tube-space information integration processing unit 91, and position information necessary for generation or presentation of support information is provided. Additional generation is performed by interpolation or estimation.
  • the tube information included in the prior information from the imaging device 11 and the sensor information for example, the shape / size / position / orientation of the specific part, etc. If there is a difference in information, or if the information necessary for generating support information is missing, the current information about the available information can be estimated from multiple sets of information, or the necessary but missing information can be estimated as much as possible. Estimate and generate additional information to integrate tube information. In addition, when information is generated by estimation related to the position, as shown in FIG. 13D, a tube position related information estimation generation unit 94 is provided in the position information integration processing unit 92 shown in FIG. Estimate
  • the sensor information is the latest information with respect to the image device information that is the prior information acquired from the image device 11. If there is information that is necessary but is missing from the current information about the current information that is estimated to be the latest information, it is estimated as much as possible so that it can be supplemented. Thus, more accurate support information can be generated or presented.
  • the integration of information taking the combination of the CT apparatus 51 and the endoscope 13 as an example will be described.
  • the image information such as a three-dimensional tomographic image
  • the coordinate system in the imaging device 11 and the insertion support system 1 is A method for determining the direction of the specimen.
  • FIG. 14 shows four positions of the subject 5 lying on the examination table (left-side position A, right-side position B, supine position C, and supine position D).
  • an examination table used for the CT apparatus 51 is an examination table M
  • an examination table using the endoscope 13 is an examination table N.
  • the direction of each coordinate axis of the XYZ coordinates of the subject 5 is determined as follows. As shown in FIG. 14, the XYZ coordinates of the subject 5 are set to X: the longitudinal direction of the examination table, Y: the width direction of the examination table, and Z: above the examination table.
  • the following method can be appropriately selected and applied as a method for setting a coordinate system more appropriately matched to the subject 5.
  • a plurality of markers appearing on the CT image are added to the subject 5 and a CT image is taken, and the XY directions are set from the position of the marker.
  • An operator such as a doctor arbitrarily determines the XY directions and inputs and sets them.
  • the Z direction is similarly determined from the information of the CT image.
  • a marking such as a line extending in the X / Y direction is provided on the examination table N, and a marker sometimes attached to the examination table M with the body orientation of the subject 5 is aligned with the marking.
  • the coordinate system of the sensing system is matched with the coordinate system of the examination table N. If there is a possibility of changing the posture of the subject on the examination table N, a marker is attached to the subject, or the subject is photographed with an imaging camera and image-processed.
  • a coordinate system may be set. Further, the method of taking the coordinate system in this example is merely an example, and any coordinate system including a coordinate system or a polar coordinate system with different origins and directions may be used as long as it is a uniquely determined coordinate system.
  • the extraction of the tube shape / arrangement information of the subject 5 from the image information such as CT and the coordinate system conversion are performed according to the following procedure. 1) Extract the shape / arrangement information of the tube cavity (organ etc.) of the subject 5 into which the insertion body 20 is to be inserted. 2) The shape and arrangement of the tube 5 of the subject 5 can be expressed in the sensor coordinate system.
  • the reconstruction of the tube image from a specific direction (viewpoint) is performed as follows. 3)
  • the direction / viewpoint information in the CT information coordinate system is sent from the insert support system 1 to the CT apparatus that generated the CT information, and is reconstructed. Further, the raw data of the CT information and the direction / viewpoint information in the CT information coordinate system are sent to another apparatus or the insertion support system 1 to reconstruct the information.
  • An irregular structure portion is extracted from the shape information of the organ of the subject 5 by pattern extraction or visual confirmation by an operator.
  • CT information an organ having a color or pattern information corresponding to a specific tissue (such as cancer) or a portion having a tissue adjacent to the organ is extracted.
  • the following a) to e) show the contents of the deviation and the corresponding method for dealing with the difference in the tube information when the CT imaging and the insertion body 20 are inserted.
  • the specific part or its surrounding shape is changed according to the increase / decrease ratio of the cross-sectional area of the tube
  • the size of the ridge is corrected so that the ridge increases when the cross-sectional area of the tube is reduced, and conversely, when the cross-sectional area of the tube is increased, the ⁇ decreases. to correct.
  • b2) As a first change in length, with respect to the length of the tube empty up to the insertion position of the insert 20, the tube is shaped and arranged along the insert 20, and near the tip of the insert 20 at the insertion position.
  • the length of the tube is expanded or contracted in accordance with the change in the portion of the tube and the insertion amount (inserted length) of the insert. 3) As a second change in length, as one method, the length of the portion ahead of the insertion position of the insert 20 is not corrected.
  • a change in the shape and arrangement of the inserted foresight is predicted.
  • the change due to the orientation of the subject 5 such as the left-side-down position, the right-side-down position, the supine position 1 and the supine position 2 shown in FIG.
  • the movement of a specific tube cavity or surrounding built-in objects is estimated.
  • the subject information output from the above-described subject information extraction unit 2 and the insert information output from the insert information extraction unit 3 are selected and imported, or the information is processed by appropriately processing the information.
  • the operation support information includes a combination of subject information and insert information, subject / insert information derived from a combination of subject information and insert information, information related to the operation of the insert (recommended action / Instructions / warning).
  • the operation support information is shown in Table 4 below.
  • the operation support information needs to be instantly responded to the doctors who are operators and easily communicated. For this reason, not only the content of information but also the way of transmission is important, and it is necessary to process / convert the information into an easy-to-understand form and to devise the way of output.
  • the recommended operations for the operation-related information are all operations related to the insert such as water supply, air supply, and intake. Any support information may be used as long as the support information improves the insertability and operability including safety.
  • the storage unit 6 stores and reads various information acquired / extracted / generated, stores information necessary for each process in advance, and appropriately reads the information as necessary. In the present embodiment, the following information is stored.
  • the display unit 16 will be described.
  • the display unit of the insertion support system 1 is also used as the display unit 16 included in the endoscope system (tubular insertion system) 100, and the operation support information is displayed and output together with the endoscope image.
  • the output form may be only the screen display by the display unit 16, but may be notified by voice, vibration or the like in order to transmit it quickly and easily to the doctors and other operators. Further, the screen display may be combined with sound, vibration, or the like.
  • the display unit 16 can be used not only with a fixed monitor but also with a portable display device such as a head-mounted display. In this case, the sound may be notified using an earphone.
  • the operation support information display method is classified into information that is always displayed and information that is displayed only when a specific condition is satisfied. These may be set according to the operator's skill or the like on the insert support system 1 by the operator determining the output format of desired information by setting the output of support information. Depending on the operator's request (setting), a setting may be made in which the output of the operation support information is not output at all until it reaches a specific state.
  • the insert support system 1 of the present embodiment described above the following operational effects can be achieved.
  • the subject information based on the imaging device information obtained in advance and the insert information by the sensor are used, so that the subject information is compared to the case of only the subject information or only the insert information. 5 and the information on the inserted body are obtained at the time of insertion / operation of the inserted body, which leads to improvement of the operability of the inserted body, and further to improved workability such as insertion performance and observation / diagnosis.
  • the conditions such as the shape / arrangement of the tube interior and the lesioned part inside the subject can be determined. It is possible to accurately read, and to obtain object information with high accuracy and a large amount of information.
  • the insertion body 20 when the insertion body 20 is inserted, if a large image device 11 such as a CT apparatus 51 or an MRI apparatus 61 is combined with a sensor to achieve the same function, the insertion operation of the insertion body 20 becomes large.
  • the facilities that can be used are limited, and depending on the imaging device 11, the patient of the subject may be exposed to X-rays or a strong electromagnetic field for a long time, or subject information may not be obtained in real time. Therefore, by acquiring the image device information in advance for endoscopic observation, the image device information can be acquired in an optimal environment and necessary processing can be completed in advance. And the load of information processing during insertion of the insert is reduced, making it possible to adopt a high-speed processing or an inexpensive processing system.
  • the insert is assumed assuming the shape. It is not easy to insert and operate to the target site.
  • the subject information and the sensor information for example, it is possible to know the features such as the shape and arrangement of the tube, the insert 5 and the position / distribution / type of the specific part.
  • the state information to be confirmed of the tube and the insert 5 can be reduced, and the accuracy of the state information can be improved, and the insertability and operability of the insert 5 are improved. Similar to the tube vacancies whose shape can be changed, the same effect can be obtained for tube vacancies having individual differences or large individual differences.
  • the above-described subject information and operation support information include the shape of the tube 5 of the subject 5 or tube shape / arrangement information or tube shape / arrangement secondary information related to the arrangement.
  • the tube shape / placement information includes tube shape / placement information obtained from the outside, secondary information thereof, and tube shape / placement information constructed based on sensor information.
  • the pipe shape / arrangement information obtained from the outside, or information obtained by correcting or adding these secondary information with the pipe shape / arrangement information constructed based on the sensor information is also included.
  • Information related to generation of operation support information related to the insert 20 includes advance image device information, captured image information, sensor information, external information, information on the subject and operator, information on the insert and system configuration, and system settings. And instructions / judgment by the operator. Based on these pieces of information, insert information, subject information, and operation support information are extracted and generated.
  • the storage unit 6 in the configuration, it is possible to store desired information or all of the information as appropriate, and read out necessary information at a necessary timing.
  • the storage unit 6 By using the storage unit 6 to store information in a database, past support information can be presented at an arbitrary timing. As a result, how the state of the subject / pipe is generally changed, how it has changed, what may be happening in the next insertion, how to insert and how to work Can be confirmed before inserting the insert.
  • useful information can be extracted later by storing it as big data.
  • Support information is work-related information related to work based on tube shape / arrangement secondary information, specific part secondary information and shape / arrangement of insert, for example, work instructions, tube information and insertion / extraction operation instructions, constriction
  • work instructions for example, work instructions, tube information and insertion / extraction operation instructions, constriction
  • step S1 generation and output of operation support information in the insert support system 1 of the present embodiment will be described with reference to the flowchart shown in FIG.
  • the endoscope 13 and the insertion support system 1 are connected, and whether or not operation support is possible is determined using the ID tag 37. Settings and initialization are performed.
  • prior image device information including any of CT image information, MRI image information, or ultrasonic image information is captured from the image device 11 into the subject information extraction unit 2 through the image device information acquisition unit 10 (step S1). .
  • step S2 external information is taken into the inserted body information extraction unit 3 via an external information acquisition unit 9 from an external device (not shown) as necessary (step S2).
  • the external information is acquired as much as necessary according to the setting, and this step S2 is skipped particularly when the external information is unnecessary.
  • the above-described sensor information detected by the shape sensor 15 mounted on the endoscope 13, the insert sensor 86, and the operation amount sensor is taken into the insert information extraction unit 3 through the sensor information acquisition unit 8 (step S3). ).
  • the inserted body information extracting unit 3 extracts and generates the inserted body information by using at least sensor information among the captured information, and the subject information extracting unit 2 and the support information generating unit as necessary. 4 (step S4).
  • the subject information extraction unit 2 generates image device secondary information from the image device information by specifying the input insert information (step S5), and further, at least one of the image device information and the image device secondary information. Using this information, subject information is extracted and generated and sent to the support information generation unit 4 (step S6).
  • the support information generation unit 4 generates operation support information using the subject information from the subject information extraction unit 2 and the insert information from the insert information extraction unit 3 (step S7).
  • the generated operation support information is output to the operator through screen display, voice, vibration, or the like through the display unit 16 or the like (step S8).
  • it is determined whether or not the set operation support has been completed step S9). If the support is not completed (NO), the process returns to step S2, information is acquired from the external device again, and the support is completed. If there is (YES), the insertion support routine is terminated.
  • image device information including a three-dimensional image or a three-dimensional tomographic image is taken into the subject information extraction unit 2 from the image device 11 through the image device information acquisition unit 10 (step S11).
  • the tube empty state (shape and position) of the subject 5 is predicted (step S12).
  • the operator grasps the endoscope 13 and inserts the insertion body 20 into the tube of the subject 5 (step S13).
  • step S14 sensor information is acquired from the sensor unit 28 mounted on the endoscope 13 to generate an actual tube 5 state of the subject 5, and the predicted tube state and the actual tube 5 state of the subject 5 are determined. Are compared to confirm whether correction is necessary (step S14).
  • step S15 it is determined whether the predicted pipe empty state is appropriate and correction is unnecessary and the process is terminated (step S15). If correction is not necessary for the predicted pipe empty state (YES), the predicted pipe empty state is sent to the support information generating unit 4 and the process ends. On the other hand, if there is a difference between the predicted tube empty state and the actual tube 5 empty state of the subject 5 and the predicted tube empty state needs to be corrected (NO), the predicted tube empty state is determined based on the sensor information. The empty information is corrected (step S16), the process returns to step S13 again, and the insertion of the inserted body into the subject 5 is continued.
  • image device information including a three-dimensional image or a three-dimensional tomographic image is taken into the subject information extraction unit 2 from the image device 11 through the image device information acquisition unit 10 (step S21).
  • image device information including a three-dimensional image or a three-dimensional tomographic image is taken into the subject information extraction unit 2 from the image device 11 through the image device information acquisition unit 10 (step S21).
  • the tubular state (shape and position) of the subject 5 is predicted (step S22), operation support information based on the predicted tubular state is generated, and an image is displayed on the display unit 16. It is displayed (step S23).
  • step S24 the operator grasps the endoscope 13 and inserts the insert 20 into the tube of the subject 5 (step S24).
  • the updated sensor information of the sensor unit 28 mounted on the endoscope 13 is acquired, and the actual tube empty state of the subject 5 is confirmed based on the sensor information (step S25).
  • the support information generation unit 4 generates operation support information based on the actual tube empty state of the subject 5 and causes the display unit 16 to display an image (step S26).
  • step S27 the operation support information based on the predicted tube empty state is compared with the operation support information based on the actual tube empty state of the subject 5, and it is determined whether or not the correction is unnecessary and the process ends (step S27). If correction is not necessary (YES), the process ends.
  • the predicted tube empty state is determined based on the sensor information.
  • the empty information is corrected (step S28), and the process returns to step S24 again, and the insertion of the inserted body into the subject 5 is continued.
  • FIG. 18 shows an example of the operation support information displayed on the display unit 16.
  • This operation support information is a situation in which the endoscope 13 is inserted into the large intestine of the subject 5. Normally, the operator does not directly know the insertion state in the subject other than the captured image captured by the endoscope 13. In the present embodiment, the following information is operation support information when inserting the insertion body 5 of the endoscope 13.
  • Information on the arrangement and shape of the large intestine 111 in the subject 5 generated by using a part of the image device information from the image device 11.
  • Information on the curved shape of the endoscope insertion body 20 generated from sensor information acquired from a plurality of sensors 112.
  • Information on the arrangement and shape of the endoscope insert 20 in the large intestine 111 generated from a combination of 1) and 2).
  • FIG. 19 is a screen displaying insertion state detection as a first display example, showing the orientation of the distal end portion of the insertion body 20 of the endoscope 13 and the arrangement relationship of a lesioned portion that is a specific site.
  • the operation support information in this display example includes 1) information on the arrangement and shape of the large intestine 2) information on the arrangement and shape of the insert 20 and 3) information on the position of the distal end of the insert 20 and the direction in which the image is taken. It is displayed.
  • the 20 is a screen displaying insertion state detection as a second display example, showing the orientation of the distal end portion of the insertion body 20 of the endoscope 13 and the positional relationship between the lesioned portion 114 which is a specific site. Yes.
  • the operation support information of this display example in addition to the positional relationship between the large intestine 111 and the insertion body 20, the traveling direction and distance from the distal end portion of the insertion body 20 to the lesioned portion, and the endoscope for reaching the distal end portion It is extremely easy to reach the lesion by updating the display of the insertion operation instruction every moment.
  • FIGS. 21A and 21B show an example in which the presence / absence of display of the operation support information is switched based on the proximity relationship between the distal end portion of the insertion body 20 and the specific part as a third display example.
  • FIG. 21A shows only the position of the distal end in the large intestine 111 because the distance between the distal end of the insert 20 and the specific portion is long, and does not display information regarding the specific portion.
  • the type of lesion lesion: Line type
  • size size
  • the positions of those lesions are all displayed, and the lesions after the distal end reaches a position below a certain distance.
  • the operation efficiency of the operator is improved by setting so as to display only the lesion information of the lesion closest to the tip.
  • the output status / output content of the operation support information such as the direction and distance from the distal end portion of the insertion body 20 is changed based on the relationship between the distal end portion of the insertion body 20 and the specific part. For example, display is started when a certain distance is approached, and the display is terminated when the distance is more than a certain distance. Here, it is displayed only when the direction of the distal end portion of the insertion body 20 substantially matches the direction toward the specific part. By switching the display contents according to the contents of the specific part, it is possible to provide an operation support status according to the specific part close to it and not to provide unnecessary information.
  • FIG. 22 shows an example in which a reconstructed image made up of a captured image (scope image 121) of an endoscope and image device secondary information generated from image device information is displayed side by side on the screen of the display unit 16.
  • the reconstructed image 122 which is the device secondary information
  • the reconstructed image 122 is specified by the insertion device information so that the viewpoint and the screen size are substantially the same as those of the scope image 121 captured by the endoscope 13. It is generated from.
  • a region 123 suspected of being a lesion included in the imaging device information (or external information) is displayed so as to overlap the observation or treatment target region.
  • a region 123 that is suspected to be a lesion is marked.
  • a region to be observed or treated or an area including the region is displayed in a brighter color than the surroundings.
  • a conspicuous display method such as, the support information is divided and displayed so that the operator of the insertion body 20 can gaze at a glance.
  • the position of the distal end portion of the insertion body 20 with respect to the large intestine, which is insertion body information, and the orientation of the viewpoint of the imaging unit can be estimated from the scope image 121 or sensor information. In this way, the distal end portion of the insertion body 20 can be guided to the observation target region without being overlooked by clearly indicating the observation / treatment target region on the image together with the captured image of the endoscope.
  • the position where it should be located is different or cannot be found, the presence of another new part is confirmed, or the lesion state is assumed. If they are of different types, the subject information is corrected / updated, which can be used for diagnosis and treatment at the time of insertion of the next endoscope.
  • the reason shown in Table 5 can be cited as the reason for such correction and update.
  • FIG. 23 is a diagram showing an example in which the shape of the large intestine 111 is deformed by the inserted insert 20.
  • the shape of the movable large intestine 111 is deformed, and the shape of the large intestine 111 is different from the shape generated based on the image device information obtained in advance. May end up.
  • the subject information is corrected so as to be the current shape and arrangement of the large intestine.
  • the insertion path is corrected by setting a new insertion path of the insertion body 20 according to the current shape and arrangement of the large intestine. As described above, by correcting / updating the shape and arrangement of the large intestine 111 and the insertion path, the insertion operation of the next insertion body 20 becomes easy.
  • an ID tag 37 is attached to the upper portion of the operation unit 30 of the insertion body 20 of the endoscope 13.
  • Examples of the ID tag information by the ID tag 37 include an endoscope type and a mounting option.
  • the mounting option includes, for example, a sensor type and a configuration when a sensor is incorporated.
  • the endoscope 13 can have functions that can be used, product status such as normal / abnormal, maintenance history, and the like.
  • the ID tag 37 may include not only discriminating information such as a model number, but also information about the specifications of the endoscope and mounted optional devices and sensors.
  • ID tag information information on whether or not the insert support system 1 can be used and function information that can be supported are added.
  • the ID tag 37 is read, and the support content suitable for the system can be set from the set ID tag information.
  • the endoscope 13 includes an old model, a new model, a model with a thin or thick insert, a model in which the tip of the insert is easy to bend, and a model in which the hardness of the insert can be adjusted. Operation support that matches the model can be set.
  • Such switching of the provision information and the provision method of the support information can be performed by mounting the support information switching setting unit 132 in the support information generation unit 131 of the insert support system 1 as shown in FIG.
  • the support information switching setting unit 132 is in the support information generation unit 131, but the arrangement location is not limited as long as it is provided in the insert support system 1.
  • the point of insertion operation and the way to cope with difficult insertion can be shown as optimal support information for each model according to the characteristics and specifications of the endoscope 13, and the burden and anxiety of the operator are great. Improved.
  • sensor part 30 DESCRIPTION OF SYMBOLS Operation part 33 ... Gripping part 34 ... Operation button 35 ... Insertion part 36 ... Bending operation part 37 ... ID tag 38 ... Object to be detected 39 ... Imaging part 51 ... CT apparatus 55 ... Imaging 56 ... Collimator 57 ... Image information 58 ... Helical scan 61 MRI apparatus, 65 ... ultrasonic diagnostic apparatus, 66 ... apparatus main body, 67 ... probe, 67a ... convex probe, 67b ... linear probe, 68 ... monitor section, 69 ... caster mount, 70 ... doctor, 71 ... sensor section main body , 72 ... optical fiber, 73 ... reflecting part, 74 ... shape calculating part, 75 ...

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Gynecology & Obstetrics (AREA)
  • Endoscopes (AREA)

Abstract

被検体の個体差により形状及び配置が異なり、また挿入体の挿入状態に従い形状が変化する観察対象に対して、CT画像や超音波画像等で取得される三次元画像が実用的に内視鏡の診断には利用されていない。 挿入体支援システムは、管状挿入システムに備えられて、前もって取得した観察対象となる被検体の管空に関わる二次元以上の画像で三次元画像又は三次元断層画像の画像情報を含む管空情報に基づき、管空の形状や配置を含む管空情報を作成し、内視鏡等の挿入体を管空に挿入するための支援情報として利用する。挿入体支援システムの支援対象となる被検体は、管空が被検体毎に形状や配置が異なり、挿入された挿入体の形状に従い変形し、その変形に伴い、支援情報を修正及び更新する。

Description

挿入体支援システム
 本発明は、軟性内視鏡鏡、カテーテル等に代表される、管空内に挿入して観察及び修理・治療・採取等の処置を行うための管状挿入システムを操作を支援する挿入体支援システムに関する。
 一般に、任意の管空内又は体腔内に挿入して、観察等を行う管状挿入システムの一例として、内視鏡が知られている。内視鏡の挿入部(又は、挿入体)は、管空内に挿入してしまうと、直視による挿入部の位置や湾曲形状を確認することができない。そのため、被観察者(患者)に挿入された内視鏡で撮像された観察画像を見て、臓器(体腔)に対する天地方向と位置関係の判断は、熟練度や経験が必要とされている。
 さらに、観察対象が大腸であった場合に、大腸は患者毎に形状や配置が異なり、挿入部の形状に従い変形しうる臓器である。そのため、撮像された画面を見ながら、大腸の形状や配置を考慮して、挿入部の挿入状況(大腸における位置と湾曲形状等)を判断する場合、操作者の知識や経験に基づく推測に依存する割合が大きい。そのため、経験が浅い操作者においては、熟練者の助言や何らかの補助がない場合、挿入部を挿抜する手際が悪かったり、必要以上に時間を要したりすることが懸念される。また、熟練した操作者であっても常に推測が正しいものとは限らず、試行錯誤する可能性もある。
特開2014-204904号公報
 前述したように、内視鏡等の挿入部は、体腔内に挿入されると、挿入部の形状を直接的に視認することができない。そこで、挿入部に位置情報を検出するためのセンサを配置して、そのセンサから得られた光強度や光量の変化に関する情報から湾曲形状を検出するシステムが提案されている。更には、診断に用いられるレントゲン撮影による二次元画像だけではなく、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等の外部画像機器から観察対象の三次元断層画像を予め入手して利用するシステムとして、例えば、特開2014-204904号公報(特許文献1)が提案されている。この特許文献1には、CT画像を利用した超音波内視鏡システムが提案されている。超音波内視鏡システムは、CT画像と体軸方向データを利用して被検者モデル画像データを生成し、挿入形状データと、超音波断層像マーカと、スコープ先端部マーカと、3次元生体組織モデルデータと、被検者モデル画像データと、誘導画像情報とを組み合わせることにより、各種ガイド画像を生成して表示している。
 このように内視鏡等の挿入部に位置センサや形状センサを組み込んで、挿入部の位置・形状・配置等を検出し、操作者へ情報提供することで挿入性を向上させようとする試みがなされている。
 しかしながら、大腸のように患者の個人差により形状及び配置が異なり、また挿入体の挿入状態に従い形状が変化する観察対象に対して、CT画像や超音波画像等で取得される二次元以上で特に三次元画像(又は、三次元断層画像)を実用的に内視鏡の診断に利用した具体的な実施方法の提案はなされていない。
 そこで本発明は、予め取得した観察対象となる管空の二次元以上の画像又は断層画像から管空の形状情報を含む管空情報を作成し、内視鏡等の挿入部を管空に挿入するための支援情報として利用する挿入体支援システムを提供することを目的とする。
 上記目的を達成するために、本発明に従う実施形態の挿入体支援システムは、被検体の所定の管空に関する二次元以上の形状情報を含み事前に得られた管空情報に基づき、前記管空へ挿入する挿入体の挿抜、観察及び治療の作業のための支援情報を提供する。
 本発明によれば、予め取得した観察対象となる管空の二次元以上の画像又は断層画像から管空の形状情報を含む管空情報を作成し、内視鏡等の挿入部を管空に挿入するための支援情報として利用する挿入体支援システムを提供することができる。
図1は、本発明の一実施形態に係る管状挿入システムに備えられる挿入体支援システムの構成例を示す図である。 図2は、挿入体支援システムを搭載する内視鏡の外観構成を示す図である。 図3は、内視鏡の挿入部先端の湾曲部の湾曲方向について示す図である。 図4は、CT装置の外観構成を示す図である。 図5は、特定視点からの被検体に対する概念的な撮像画像を示す図である。 図6は、CT装置におけるヘリカルスキャンによる撮像の概念を示す図である。 図7は、MRI装置の外観構成を示す図である。 図8は、超音波診断装置による診断状況を示す図である。 図9は、超音波診断装置及び使用されるプローブの外観構成を示す図である。 図10は、挿入体の湾曲形状を検出する湾曲形状検出装置の構成例を示す図である。 図11Aは、ファイバセンサが取り付けられた側に湾曲した光ファイバ内を導光する検出用光を示す図である。 図11Bは、真っ直ぐな状態の光ファイバ内を導光する検出用光を示す図である。 図11Cは、ファイバセンサが取り付けられた側とは反対側に湾曲した光ファイバ内を導光する検出用光を示す図である。 図12は、被検体の管腔の開口部に挿入体センサを配置する例を示す図である。 図13Aは、被検体情報抽出部内に設けられる管空情報統合処理部を示す図である。 図13Bは、管空情報統合処理部内に設けられる位置情報統合処理部を示す図である。 図13Cは、管空情報統合処理部内に設けられる管空関連情報推定生成部を示す図である。 図13Dは、位置情報統合処理部内に設けられる管空位置関連情報推定生成部を示す図である。 図14は、診察台に横たわる被検体の臥位状態を示す図である。 図15は、挿入体支援システムにおける操作支援情報の生成及び出力について説明するためのフローチャートである。 図16は、被検体の管空状態に関する情報の修正又は更新の処理について説明するためのフローチャートである。 図17は、推測した被検体の管空状態と実測した被検体の管空状態とを提示する支援情報処理について説明するためのフローチャートである。 図18は、表示部に表示される操作支援情報の一例を示す図である。 図19は、第1の表示例として、挿入状態検出を表示している画面を示す図である。 図20は、第2の表示例として挿入状態検出を表示している画面を示す図である。 図21Aは、第3の表示例となる挿入体の先端部と特定部位との近接関係から操作支援情報の呈示の有無を切り替えている例を示す図である。 図21Bは、第3の表示例として、挿入体の先端部と特定部位との近接関係から操作支援情報の呈示の有無を切り替えている例を示す図である。 図22は、画面上に撮像画像と再構成画像を横並びに表示した例を示す図である。 図23は、挿入された挿入体により大腸の形状に変形が生じた例を示す図である。 図24は、支援情報や支援情報の生成の仕方の例を示す図である。
 以下、図面を参照して本発明の実施形態について詳細に説明する。 
[第1実施形態] 
 図1には、本発明の一実施形態に係る管状挿入システムに備えられる挿入体支援システムの構成例を示している。図2は、挿入体支援システムを搭載する内視鏡の外観構成を示し、図3は内視鏡の挿入部先端の湾曲部の湾曲方向について示す図である。以下、本実施形態の管状挿入システムとして、医療用軟性内視鏡(上部消化管・大腸・超音波・膀胱鏡・腎盂鏡等)を例にとって詳細に説明する。勿論、本実施形態は、医療用軟性内視鏡に限定されるものではなく、挿入体を操作して、挿入・処置を行う管状挿入システムであれば、他にも工業用内視鏡、一部湾曲機構を有する硬性鏡、マニピュレータ(ロボットアーム)、カテーテル等の長手方向の
とも一部の形状が湾曲変化しうる管状挿入システムに汎用的に適用可能である。
 以下に説明する本実施形態において、内視鏡の観察対象物とする管空(体腔又は管腔)は、消化器や気管支や泌尿器等として、ここでは、大腸を一例として説明する。前述したように、大腸は、被検体毎に形状や配置が異なり、時間の経過や機器の挿入等によって形状が変化しうる臓器である。この被検体は、診断や治療をする患者を想定しているが、患者に代わってシミュレーション用の患者モデルや臓器モデルであってもよい。尚、医療に特化せずとも、内部に管空や空洞部を有する機器等であってもよい。
 まず、図2及び図3を参照して、挿入体支援システム1を搭載する内視鏡システム100について概略的に説明する。図2は、内視鏡システムの概略的な構成例を示す図である。図3は、挿入体における、操作による動作方向を概念的に示す図である。 
 本実施形態における内視鏡システム(管状挿入システム)100は、観察対象の体腔内に挿入する管状挿入装置である。
 内視鏡システム100は、被検体内に挿入され、挿入体(所謂、挿入部)の先端に設けられた撮像部により撮像する内視鏡13と、撮像された観察画像を画像処理する画像処理部14(所謂、ビデオプロセッサ)と、画像処理部14からの観察画像を表示するモニタ(表示部)16と、内視鏡13に照明光を出射する光源装置18と、形状センサ(センタ本体部)15と、内視鏡システム全体を制御する制御装置19とを有している。尚、本実施形態の内視鏡には、一般的に使用される機能や機器等は備えているものとする。
 内視鏡13は、操作者(operator)が把持する把持部31が設けられた操作部30と、操作部30の基端側に接続される細長い管状で可撓性を有する挿入体20と、操作部30を光源装置18及び画像処理部14の双方に接続し、画像送信を行う信号線及び照明光を導光する光ファイバからなる所謂、ライトガイドを含むユニバーサルケーブル27と、を有している。操作部30においては、内視鏡13を操作する操作者(医師らの作業者)によって把持部31が把持され、その上部に配置される湾曲操作部36及び操作ボタン34の操作が行われる。
 さらに、操作部30の上部近傍には、IDタグ37が設けられており、識別のための固有の型番や製造番号等が記録されている。このIDタグ37は、内視鏡13を挿入体支援システム1に接続した時に、支援可能か否かの判断と固有のパラメータの設定に利用される。この固有のパラメータは、後述する記憶部6に予め記憶されており、初期化に際して適宜、読み出されて制御装置19に設定される。尚、挿入体支援システム1が支援不可を判断した内視鏡であっても、支援無しの通常の使用は可能である。また、支援可能な場合においても、IDタグ37の内容に応じて、提供可能な支援情報や提供できる支援情報の正確さやレベルの範囲が固有のパラメータとして設定される。 
 このようなIDタグに書き込まれた情報の例を表1に示す。表1に記載の情報全てをIDタグに書き込む必要は必ずしも無く、支援システムを起動して支援情報を生成するのに必要な情報が少なくとも書き込まれていればよい。
Figure JPOXMLDOC01-appb-T000001
 このようなIDタグに書き込まれた情報に基づいて、挿入体支援システムは提供可能な支援情報を判別する。判別した提供可能な支援情報は、例えば、操作者にプルダウンメニュー等で表示し、必要に応じて選択してもらってもよい。これによって、操作者は、どの様な支援情報が入手可能か分かり、更に、欲しい支援情報を選択的に出力するよう、設定が可能となる。
 さらに、提供可能な支援情報、または、提供することが決まった支援情報を生成するための設定を必要に応じて行う。これは、必要な情報を生成・取得するためのセンサや画像機器の設定であったり、情報を受け取るための手順を決めたり、受け取った情報から支援情報を生成するための処理を選択したり、といった設定などがある。また、こうした設定は、支援情報を生成しようと思った際に行ってもよいが、起動時に行うと最初の1回で処理が完了するため、処理が簡便で途中で手間取らない。
 さらに、支援システムの構成要素が起動中に着脱可能な場合には、システム構成の変化を検出して設定を更新するようにすると同様に便利である。挿入体20は、基端部側から先端部側に向かい、可撓管部25と、湾曲部23と、先端硬質部21とが連結するように一体的に形成されている。
 この挿入体20内には、長い方向に沿って、少なくとも照明光を導光する不図示の光ファイバであるライトガイドと、後述する挿入体20の湾曲状態を検出するための形状センサ15の検出光用の光導通部材、例えば、光ファイバとが並設されるように設けられている。尚、検出光用の光ファイバは、挿入体20の湾曲状態を検出できるように、挿入体20と一体的に固定されている。検出光用の光ファイバは、挿入体20の長手軸方向に沿った中心軸上に配置されるのが好ましいが、特には限定されていない。尚、以下の説明において、区別を行うために、照明光を導光する光ファイバをライトガイドと称している。さらに、挿入体20の基端側で操作部30との間には、先端側のチャンネル開口まで挿入体20内部を貫通し、各種鉗子を挿通させる鉗子チャンネルの挿入口部35が配設されている。また、照明窓は、光学レンズで構成され、光源装置18からライトガイドを通じて導光された照明光を観察対象エリアに照射する。
 先端硬質部21は、硬質部材により概ね円筒形状に形成され、その先端面には、図示していないが、少なくとも照明光を照射する照明窓と、観察対象エリアを撮像するための観察窓及び光学系を含む撮像部39と、洗浄液等や気体を含む流体を噴出するノズルと、チャンネル開口とが設けられている。操作部30には、湾曲部23を挿入方向に対して互いに直交する、例えば、上下及び左右方向に湾曲させるための湾曲操作部36(UDノブ、LRノブ等)と、撮像や送気送水及び吸引等を行うための種々の操作ボタン34が設けられている。湾曲部23は、不図示の複数の節輪により構成され、節輪間を繋ぐ回動軸を交互に90°ずれて直交させて挿入体20の長手軸方向に連結されている。先端の節輪は、操作部30に配置された湾曲操作部36と複数のワイヤで接続されて、湾曲操作部36の操作に応じてワイヤが牽引され、それぞれの回動軸を中心にそれぞれの節輪が適宜回動し、全体的には円弧の状態となり、結果、湾曲部を湾曲させた状態となる。尚、湾曲操作部36は、手動ノブに限定されず、ワイヤ牽引にモータの駆動力を利用した電動タイプであってもよい。
 可撓管部25は、可撓性を有しており、外力によって湾曲可能である。操作者は、湾曲操作部36を操作し、湾曲部23を所望の方向に湾曲させ、さらに可撓管部25の可撓性を利用して押し引きや捻りを入れることで、被検体である患者の消化器や気管支や泌尿器等の管空へ自在に挿入していくことが可能となる。さらに、湾曲部23を湾曲させることで、先端硬質部21の向きを変えて、観察対象物を観察視野内に捉えて、照明光を観察対象物に照明する。
 本実施形態では、形状センサ15は、挿入体20内に配置される光ファイバの所定位置に少なくとも1つの湾曲状態を検出するための被検出部38を配置している。形状センサ15の後述する光源は、ユニバーサルケーブル27(光ファイバ)を通じて、照明光とは異なる波長の検出用光を出射する。形状センサ15は、挿入体20の光ファイバ内に検出用光を出射して、被検出部38により影響を受けた検出用光を検出して、その時の挿入体20の形状を検出する。
 内視鏡13は、センサ部28として、形状センサ15に加えて、さらに、後述する挿入体センサ86及び操作量センサが設けられている。操作量センサは、前述した操作部30内に設けられ、湾曲操作部36と接続されている複数のワイヤの移動量を検出する。これらのワイヤの移動量は、湾曲操作部36の操作量に応じて変化し、ワイヤの移動量から湾曲部23の湾曲方向と湾曲状態を検知することができる。
 センサ部28は、挿入体20の形状及び姿勢を含む配置情報、又は先端部に関する情報(位置・向き・姿勢)、の少なくとも1つを検出/推定して、センサ部28から得られたセンサ情報に基づく挿入体情報と、画像機器情報に基づく被検体情報から操作支援情報を生成することができる。挿入体20の形状及び姿勢を含む配置又は、先端部に関する情報(位置・向き・姿勢)、の少なくとも1つを挿入体情報及び、操作支援情報の一部とする。よって、操作者が挿入体20の位置関連情報を知ることができ、管空のどこまで挿入したか又は、これからの挿入体20の挿入の進め方を、この情報が無い場合に比べて、より正確に知ることができ、被検体情報と組み合わせることで挿入体の挿入性・操作性が向上する。
 これらのセンサを用いて、図3の矢印に示すように、管空内に挿入された挿入体20における挿抜方向の進退移動量A1と、操作部30の回動を伴う捻り(回転)量A2と、湾曲操作部36の操作による湾曲部23の上下方向A3及び左右方向A4とに湾曲方向及びその移動量に関するセンサ情報を生成する。 
 なお、内視鏡13には、記載されたセンサ以外のセンサやアクチュエータが搭載されていてもよい。センサ情報は、1つ以上の搭載されたセンサから検出、または、生成されるものとし、得られるセンサ情報は複数の種類の情報から成っていても良い。
 図1を参照して、挿入体支援システム1の構成について説明する。 
 本実施形態の挿入体支援システム1は、内視鏡システム100に備えられて、被検体5である患者に挿抜する際に操作者である医師らに支援情報を与え、さらに診断や治療等のための観察や処置を支援する。具体的には、挿入体支援システム1は、内視鏡13の挿抜や処置のための操作を行う際に、内視鏡の撮像部で撮像された画像情報を含み、後述する各センサから検出したセンサ情報と、画像機器によって取得された画像や画像を基に生成された情報や情報に加えられた判断など、事前の画像関連情報とを取り込み、操作支援情報を生成し、操作者に提供する。
 挿入体支援システム1は、主として、被検体情報抽出部2と、挿入体情報抽出部3と、支援情報生成部4と、記憶部6と、出力部(例えば、表示部)16と、後述する複数の情報取得部と、で構成される。尚、挿入体支援システムの出力部16は、内視鏡システム100の表示部と兼用している。但し、出力部16からの出力は、表示部に表示される画像情報(操作支援情報)のみに限定されるものではなく、他の機器等に各種情報を出力する機能も有している。勿論、別個に設けてもよい。
 複数の情報取得部は、観察対象の被検体5に関する各種の被検体情報を外部から取得する。本実施形態の情報取得部としては、撮像情報取得部7と、センサ情報取得部8と、外部情報取得部9と、画像機器情報取得部10とを有している。勿論、これらの情報取得部は、被検体情報抽出部2や挿入体情報抽出部3の一部として組み込まれてもよい。また、これらの情報取得部以外でも利用可能な情報を提供するものを追加してもよい。
 具体的には、撮像情報取得部7は、挿入体20の先端側に設けられた撮像部39が撮像した被検体5の画像を含む撮像画像情報を取り込み、被検体情報抽出部2へ送出する。尚、撮像画像情報は、被検体5の管空に関する画像情報である。 
 センサ情報取得部8は、形状センサ15、後述する挿入体センサ86及び操作量センサが検出した挿入体情報からなるセンサ情報を取得し、挿入体情報抽出部3へ送出する。
 さらに、外部情報取得部9は、外部機器やLANを経由して得られる被検体5に関する外部情報を内視鏡観察又は内視鏡診断に先立って取得し、挿入体情報抽出部3へ送出する。画像機器情報取得部10は、被検体5の三次元断面画像等の画像機器情報を後述する画像機器11より内視鏡観察に先立って取得し、被検体情報抽出部2へ送出する。また、各情報取得部は、被検体情報や挿入体情報以外の操作支援に関わる情報等を併せて取得してもよい。
 さらに、撮像情報取得部7、センサ情報取得部8、外部情報取得部9及び画像機器情報取得部10等が取得する外部情報に対して、挿入体支援システム1内、又は、挿入体支援システム1からのリクエストにより外部機器を利用して適宜、抽出・加工等の処理を行う。挿入体支援システム1が外部から取り込む情報を1次情報とし、挿入体支援システム1内で生成された、又は該システム1の指示によって生成された情報を2次情報と称する。また、これらの1次情報と2次情報を合わせて単に情報と称している。例えば、画像機器11上で事前に得られる情報は、挿入体支援システム1向けに事前に加工されていても、1次情報とする。一方、画像機器情報を提供した画像機器11に対して、既に取り込んだ被検体5の情報を基に、特定の情報を新たに生成するように挿入体支援システム1が指示した場合に得られる情報は2次情報とする。
 これらの情報取得部のうちで、画像機器情報取得部10及び画像機器11は、必須である。それ以外は、少なくとも1つ以上の機器等があり、それらの機器からの情報と、画像機器情報取得部10からの情報と、を組み合わせて、挿入体情報抽出部3にて挿入体情報が抽出・生成できればよい。
 被検体情報抽出部2は、取得したセンサ情報及び画像機器情報から被検体5の形状等の被検体情報を抽出・生成する。挿入体情報抽出部3は、取得したセンサ情報及び外部情報から被検体5における挿入状況・形状等を示す挿入体情報を抽出・生成する。支援情報生成部4は、被検体情報抽出部2及び挿入体情報抽出部3からの挿入体情報に対して、取捨選択及び各種加工することによって、後述する操作支援情報を生成する。
 記憶部6は、被検体、および、操作者についての情報、複数の情報取得部から得られる情報、被検体情報抽出部2、挿入体情報抽出部3及び支援情報生成部4における中間生成情報や支援情報や、様々な内視鏡やセンサ類についての固有のパラメータ等を記憶する。また、記憶部6は、目的に応じて複数配置してもよいし、外部に配置して、LANやインターネット等で接続しても良い。前述したように、出力部16は、出力の一形態として支援情報生成部4からの操作支援情報を表示する表示部を含んでいる。なお、支援情報の表示は、出力の一形態であり、その他の種々の出力形態があり、例えば、情報呈示の仕方においても、音声・振動・光等様々な形態を含んでいる。操作支援情報は、その出力形態に合わせて、変換や変更が実施される。尚、支援情報に基づいてアクチュエータを制御するといったことも可能である。
 以下に、挿入体支援システム1の各構成部位について詳細に説明する。 
 図4は、CT装置の外観構成を示す図、図5は、特定視点からの被検体に対する概念的な撮像画像を示す図、図6は、CT装置におけるヘリカルスキャンによる撮像の概念を示す図である。図7は、MRI装置の外観構成を示す図である。図8は、超音波診断装置による診断状況を示す図、図9は、超音波診断装置及び使用されるプローブの外観構成を示す図である。
 本実施形態に用いられる画像機器11は、公知な機器であり、例えば、CT装置51、MRI装置61及び超音波診断装置65等が利用できる。これらの画像機器11からは、観察対象となる被検体5の管空に関する二次元以上の画像情報が内視鏡観察の直前に取得される。又は、内視鏡観察の直前で、診断等、他の目的に利用した画像情報を再利用してもよい。本実施形態に利用可能な画像情報としては、以下の表2に示す情報がある。但し、画像機器11によっては取得できない情報もあり、それらの情報は除くものとする。
Figure JPOXMLDOC01-appb-T000002
 特に、CT装置51では、図5に示すように被検体5の外部の特定方向、又は、撮像部55の視点からコリメータ56を経て観察対象範囲全体の観察ができ、被検体5の広い範囲、又は、全体についての1つの方向、又は、視点からの画像情報57を取得できる。また、図5及び図6に示すように、撮影時に視点(被検体)を移動するヘリカルスキャン58により、立体像や任意断面形状を再構成可能となる。
 ここで、超音波診断装置について説明する。内視鏡観察においては、前述したように、被検体5に観察を行うため挿入体20を挿入しつつ、挿入されている状態において、逐次、現況の情報を取得できることが最も好ましい。
 図8及び図9に示すように、超音波診断装置65は、装置本体66と、プローブ67(67a,67b)と、モニタ部68とで構成され、移動可能にキャスタ架台69に搭載されている。装置本体66は、図示していないが、超音波の生成と送信受信を行う送受信部と、制御部と、ドップラー信号等を処理する信号処理部と、画像処理部と、記録部と、キーボード等による入力部等で構成される。また、プローブの代表的なものとして、放射状に超音波を放出するコンベックス型プローブ67a、直線的に超音波を放出するリニア型プローブ67bを示している。他にも、コンベックス型プローブ67aよりも狭域なセクタ型プローブがある。超音波診断装置65を使用する場合には、図8に示すように、被検体5を診察台に寝かせて、医者70が観察を所望する箇所にプローブ67を宛がい、三次元画像を取得する。
 尚、通常の内視鏡観察時には、被検体5の患者は、寝かせられている場合が多い。そのため、画像機器11での体内画像観察時と似たような***となる。寝ている体の向きが異なる場合、臓器の配置が重力によって若干異なる可能性があるため、必要に応じて可能であれば、画像機器情報を内視鏡観察時に対応した画像となるよう、適宜、修正を行う。
 また、被検体が物や装置などである場合には、被検体に対応した画像機器を用いるものとする。例えば、被検体の素材によっては、赤外線撮像装置を用いて透視画像を得ることができる。
 次に、図10乃至図12を参照して、センサ情報取得部8が取得するセンサ情報について説明する。図10は、挿入体20の湾曲形状を検出する形状センサ15の構成例を示す図である。図11A,11B,11Cは、光ファイバに取り付けられたファイバセンサにおける湾曲した際の光伝達量について説明するための概念図である。図12は、被検体5の管腔の開口部(例えば、口腔部)85に挿入体センサ86を配置する例を示す図である。
 本実施形態におけるセンサ情報は、形状センサ15、挿入体センサ86と操作量センサにより検出された情報を加工した挿入体20の形状及び挿入距離(挿入量)等からなる情報である。
 図10に示す形状センサ15は、図2に示したように、内視鏡13の挿入体20の長手軸方向に沿って設けられた光ファイバ72に少なくとも1つの被検出部38を配置し、検出した曲率(湾曲量)から挿入体20の湾曲形状を検出する。 
 形状センサ15は、センサ部本体71、被検出部38及び制御部75とで構成される。制御部75は、形状演算部74を含みセンサ部本体71内の各構成部位を統括的に制御する。前述したように光ファイバ72は、照明光を導光するライトガイド(光ファイバ)と並設されている。 
 センサ部本体71は、光軸上で出射する側から、光源76と、投光レンズ77と、アイソレータ78と、反射ミラー79と、第1集光レンズ80とが配置される。反射ミラー79で分岐された光軸上に第2集光レンズ81と光検出部82が配置されている。
 光源76は、例えば、LEDにより構成され、内視鏡で使用される照明光とは異なる少なくとも1つの波長の検出用光を出射する。複数の被検出部38を用いた場合には、異なる複数の波長の検出用光を用いる構成が好ましい。アイソレータ78は、光源76から出射された検出用光を通過させて、反射ミラー79の反射により戻ってきた検出光の通過を阻止して、光源76に光が戻らないようにしている。
 センサ部本体71の集光レンズ80から出射された検出用光は、光ファイバ72の基端側から入射されて導光される。その導光された検出用光は、光ファイバ72の先端側に設けられた反射部73で反射し、検出光として、再度、光ファイバ72内を通過して、センサ部本体71に戻る。その検出光は、反射ミラー79で屈曲されて分岐され、光検出部82に受光される。光検出部82は、光電変換素子等で構成され、湾曲により変化する検出光の光強度に基づく形状信号を出力する。形状演算部74は、光検出部82からの形状信号に基づき、実際に湾曲部23の湾曲形状の曲率(円弧の大きさ)を演算出力する。
 挿入体20の湾曲と検出用光の光伝達量の関係について説明する。 
 図11Aは、被検出部38が取り付けられた側に湾曲した光ファイバ72内を導光する検出用光を矢印で示し、図11Bは、真っ直ぐな状態の光ファイバ72内を導光する検出用光を矢印で示し、図11Cは、被検出部38が取り付けられた側とは反対側に湾曲した光ファイバ72内を導光する検出用光を矢印で示している。
 前述したように被検出部38は、光ファイバ72の特定箇所の外周面に取り付けられて、導光される検出用光を吸収して光強度を減少させる、即ち、光伝達量を減少させている。従って、被検出部38に照射される光量が多いほど、光伝達量が小さくなる。つまり、光ファイバ72が、図11Bに示す真っ直ぐな状態から、図11A又は図11Cに示す何れかの湾曲状態に変化すると、同期するように検出用光の光伝達量にも増減の変化が発生する。この検出用光の光伝達量の変化は、光検出部82が受光する光強度の変化となり、形状演算部74は、被検出部38の湾曲方向と、この光量の変化に基づく検出信号から光ファイバ72の曲率を算出する。これらの例では、図11Aに示す多くの光が光ファイバ側面に反射される湾曲状態が最も光伝達量が大きくなり、図11Bに示す一部の光が被検出部38に入射される真っ直ぐの状態、図11Cに示す多くの光が被検出部38に入射される湾曲状態の順に、光伝達量が減少していく。
 このように形状センサ15は、光ファイバ72の湾曲形状によって、光ファイバ72内を通過する光量が変化する光量変化検出方式のファイバセンサである。特徴として、細径で内視鏡に組み込みやすい点と、他の構成の影響を受けにくい点がある。この方式は、検出部が安価に構成できるので、量産製品に向いたセンサとなっている。この他にも、FBG方式と言われる光ファイバにグレーティングを形成した方式がある。この方式は、検出部が複雑で高価になりがちだが、1本の光ファイバに複数の被検出部38を設けて、複数の検出点を取得して高精度に所望の範囲の湾曲形状を検出することが可能である。
 図12は、挿入体センサ86の構成例を示している。挿入体センサ86は、挿入体20の外周面に設けた位置を示すマーク(図示せず)を光センサ等で光学的に読み取り、体腔(管腔)に対する挿入体20の挿入量及び回転量を検出する。 
 本実施形態に用いられるセンサ部28は、形状センサ15と挿入体センサ86と操作量センサであり、これらのセンサを搭載することで以下のセンサ情報を得ることができる。 
 1)挿入体湾曲形状、 
 2)挿入体の挿入量、 
 3)回転(ねじり)量、 
 4)挿入体先端にある湾曲部の湾曲の操作量、 
 5)管腔を有する被検体に対する挿入体の湾曲形状、 
 6)挿入体先端に掛かる力。
 これらのうち、2)乃至4)のセンサ情報は、各センサから直接得られる情報であり、1)、5)、6)のセンサ情報は、信号処理により得られる情報である。詳しくは、1)のセンサ情報は、形状センサによる湾曲情報を組み合わせていくことで、所定の範囲の湾曲形状を算出できる。5)のセンサ情報は、1)乃至3)の各センサ情報を用いて算出でき、6)のセンサ情報は、1)と4)のセンサ情報を用いて算出することができる。
 また、使用するセンサは、形状センサと挿入体センサと操作量センサに限定されるものではなく、同等な情報を取得可能であれば、特に限定されるものではなく、異なるタイプのセンサであってもよい。勿論、センサ情報を得るためのセンサは、同じタイプのセンサを複数個を配置してもよい。さらに、挿入体支援システム1に利用可能な情報であれば、前述した情報に限定されず、異なった種類の情報を得るための別種のセンサを用いてもよい。
 次に、外部情報取得部9が取得する外部情報について説明する。 
 外部情報取得部9を通して、外部機器から得られる外部情報として、表3に記載される外部情報が挙げられる。これらの外部情報は、本実施形態の挿入体支援システム1にとって必ずしも必須ではないが、有用なことも多く、目的に応じて選択し、適宜、利用してもよい。なお、これらの外部情報の内、予め取得しておくことが可能な情報は、記憶部6に記憶しておき、適宜、更新した上で、必要な時に取り出してもよい。
Figure JPOXMLDOC01-appb-T000003
 次に、被検体情報抽出部2及び挿入体情報抽出部3について説明する。 
 被検体情報抽出部2では、内視鏡観察に対して、事前に画像機器11から得られた被検体5に関わる画像機器情報(事前の画像機器情報)を主として、操作支援情報の生成に必要な被検体情報を抽出・生成する。また、外部情報取得部9から得られた情報を併せて用いて抽出・生成してもよい。以下の説明において、画像機器11から得られた画像機器情報を基に、画像機器2次情報生成部12により生成された2次情報を「画像機器2次情報」と称する。
 画像機器情報は操作支援にそのまま使える情報とは限らない。特に、特定の視点からの画像情報や病変などの情報は有用であるが、画像機器情報に含まれない場合、これらを画像機器2次情報生成部によって画像機器2次情報として生成することで、狙いとする操作支援情報を生成可能となる。
 この画像機器2次情報には、以下のようなものがある。但し、画像機器情報として既に取得されているものは除くものとする。 
 1)画像2次情報:管状の挿入体20に撮像部が設けられている場合に、撮像部に撮像された撮像部位の画像に対応するように再構築した画像 … 画像機器11に撮像部位の位置・向きを指定して再構築する、 
 2)形状・配置2次情報、 
 3)特定部位2次情報。
 この画像機器2次情報は、特定の視点/断面における管空の形状又は、配置を示す管空形状・配置2次情報を含んでいる。尚、画像機器2次情報生成部12は、挿入体情報抽出部3からの生成情報の指定を受けて、その指定に基づき2次情報を生成してもよい。例えば、撮像部39による撮像画像や各センサによる挿入体先端の位置・向きに基づいて、撮像画像に対応した画像を画像機器情報から再構築するようにしてもよい。また、画像機器2次情報の生成は、必ずしも被検体情報抽出部2で行わなくてもよく、画像機器11を含む外部装置に生成を任せてもよい。
 画像機器2次情報が管空形状、配置2次情報を含むことから、画像を再構成する画像2次情報の特定の視点を操作者の視点や挿入体に設けた撮像部の視点に合わせることで挿入体の挿入性・操作性が向上する。また、特定部位の状況が分かりやすい視点とすることで、特定部位を通過するための仕方や特定部位での観察/診断・治療といった作業に好適する挿入体の配置の仕方がより改善され、挿入体の挿入性・操作性が向上することとなる。
 また、観察対象となる管空の形状及び配置は、被検体の外部からは、直接観察できないため、管空の形状及び配置2次情報を提示する可能性ができることによって、挿入体の進行方向や進入位置の情報が無い場合に比べて、より正確に知り得ることができる。
 また、画像機器2次情報に特定部位2次情報が無い場合に比べて、特定部位の見落としを防止し、探索に掛かる時間の短縮を実現することができる。また、特定部位2次情報を操作者が事前に知っていたとしても、必要に応じて、操作支援情報として操作者が受け取れるように設定すれば、特に特定部位の数や種類が多いときに、見落とす可能性を減らすことができ、挿入体の挿入性及び操作性が向上する。
 挿入体20の形状・配置情報又は先端情報と画像機器情報から撮像画像に対応する画像機器2次情報を生成される。また、挿入体支援システム1は、画像機器2次情報は、特定の視点/断面での管空の形状・配置を示す管空形状・配置2次情報を含み、挿入体情報は、特定の視点/断面での前記挿入体の形状・配置情報を含み、操作支援情報は、管空形状・配置2次情報と挿入体の形状・配置情報とを合わせた画像情報を含んでいる。この操作支援情報が、管空形状・配置2次情報と挿入体の形状・配置情報とを合わせた画像情報を含むことで、管空に対する挿入体の相対位置関係が一目瞭然で確認でき、挿入体の挿入性・操作性が向上する。
 前述した被検体情報及び操作支援情報は、挿入体20の挿抜の要注意部位、即ち、挿抜の際に注意を払わなければならない注目部位や観察/診断・治療などの作業対象部位である特定部位に対応した特定部位2次情報を含んでいる。これは、内視鏡画像に対応した管空の画像と共に、特定部位の範囲/形状/サイズの表示、内容/作業/注意点といった情報を操作支援情報として併せて提示することで、内視鏡の撮像画像上での特定部位の特定や作業が容易となり、挿入体の挿入性・操作性が向上する。
 挿入体情報抽出部3は、センサ情報取得部8から入力された挿入体20に関係するセンサ情報を用いて、操作支援情報の生成に必要な挿入体情報を抽出・生成する。このセンサ情報は、前述したように、形状センサ15、挿入体センサ86及び操作量センサから検出された情報である。さらに、外部情報取得部9から得られた挿入体20に関わる外部情報を用いたり、この外部情報とセンサ情報と併せたりして抽出・生成してもよい。
 また、観察領域又は処置等の作業対象領域を挿入体20で確認した際に、その位置が異なったり、無かったり、他の部位にもあったり、病変が想定とは異なるタイプのものであったりした場合には、挿入体情報抽出部3は、画像機器情報(撮像画像情報)又は、センサ情報の少なくとも1つに基づき、被検体情報の修正又は、更新をリアルタイムに行う。これにより、管空に挿入体20を挿入した際に、事前情報である画像機器情報と異なる管空の情報が得られたり、挿入や作業に応じて時々刻々と得られる管空の情報が変化する。このように被検体情報を修正/更新をリアルタイムに行うことで、次の挿入体挿入時の挿入や診断・治療に役立つ。
 図13A乃至13Dを参照して被検体情報抽出部2について説明する。 
 図13Aは、被検体情報抽出部2内に設けられる管空情報統合処理部91を示す図、図13Bは、さらに管空情報統合処理部91内に設けられる位置情報統合処理部92を示す図、図13Cは、また管空情報統合処理部91内に設けられる管空関連情報推定生成部93を示す図、図13Dは、位置情報統合処理部92内に設けられる管空位置関連情報推定生成部94を示す図である。
 図13Aに示すように、被検体情報抽出部2内に、画像機器情報とセンサ情報に含まれている被検体5の管空に関する情報を統合するための管空情報統合処理部91を設ける。この管空情報統合処理部91は、被検体情報抽出部2と並列的に配置してもよい。統合する情報は、管空に関する情報であれば、特に限定されない。例えば、同じ状態が異なる表記であったり、情報の重複や欠落があったり、状態と表記の食い違いあったりする場合に、これらを整合し、予め定めた表現方法に合わせるように統合することで、情報が簡潔で扱いやすいものとなる。
 さらに、統合する情報の例として、特に、特定部位の位置に関連した位置関連情報が挙げられる。この位置関連情報には、特定部位の形状・大きさ・位置・向きなどが挙げられる。図13Bに示すように、管空情報統合処理部91内に設けられた位置情報統合処理部92は、これらの位置関連情報の座標系を共通化し、位置情報を統合する。これは、位置関連情報の座標系を1つに統合することで、共通の座標系を用いて双方の位置情報を処理したり表示したりすることが可能となる。
 一方、上述のような座標系の統合を行うと、支援情報の生成又は、提示に必要な配置間隔における位置情報が抜け落ちたり、特定の処理を施さないと、支援情報の生成には不十分な位置情報であったりする場合がある。このような場合には、図13Cに示すように、管空情報統合処理部91内に、管空関連情報推定生成部93を設けて、支援情報の生成、又は、提示に必要な位置情報を補間又は、推定により追加生成を行う。
 この管空関連情報推定生成部93は、画像機器11からの事前情報とセンサ情報に含まれる管空情報に、差異や欠落がある場合、例えば、特定部位の形状・大きさ・位置・向きなどが異なる場合や、支援情報の生成に必要な情報が欠落している場合には、複数セットの情報から現状の管空情報を推定したり、必要であるが欠落している情報を可能な限り推定して追加生成して管空情報を統合する。また、位置に関する推定により情報生成する場合には、図13Dに示すように、図13Bに示した位置情報統合処理部92内に、管空位置関連情報推定生成部94を設けて、位置関連情報の推定を行う。
 尚、画像機器11から取得した事前情報となる画像機器情報に対して、センサ情報は、最新の情報である。この最新の情報を正しいものとして推定した現状の管空情報に対して、必要であるが欠落している情報があれば、補うように可能な限り推定して、統合する際に追加することで、より正確な支援情報の生成又は提示が可能となる。
 ここで、CT装置51と内視鏡13の組合せを例にした情報の統合について説明する。具体的には、CT装置51から取得された画像情報(三次元断層画像等)とセンサ情報を統合することを前提にして、画像機器11と挿入体支援システム1における座標系の取り方や被検体の方向の決め方について説明する。
 図14は、診察台に横たわる被検体5の4つの臥位(左側臥位A、右側臥位B、仰臥位C、仰臥位D)状態を示している。この時、CT装置51に使用した診察台を診察台M、内視鏡13を使用する診察台を診察台Nとする。
 まず、2つの座標系を統合できるように設定する。 
 被検体5が診察台Mに横たわることを想定して、被検体5のXYZ座標の各座標軸の方向を以下の様に決める。図14に示すように、被検体5のXYZ座標は、X:診察台長手方向、Y:診察台幅方向、Z:診察台上方に設定している。
 この座標設定に対して、より適正に被検体5に合わせた座標系の設定方法として、次の様な方法も適宜選択して適用できる。 
 1)(腹部付近の)背骨や骨盤の向きからXY方向を設定する、 
 2)頭部と股間/足先を結ぶ線からXY方向を設定する、 
 3)被検体5にCT画像に映り込むマーカを複数付けてCT画像を撮り、マーカの位置からXY方向を設定する、 
 4)医師らの操作者がXY方向を任意に決めて入力設定する。同様に、Z方向も同様にCT画像の情報から決めるものとする。
 次に、挿入体支援システム1におけるXY座標系の設定例として、以下のような方法が挙げられる。 
 1)診察台Nに、X/Y方向に延びるライン等のマーキングを設けて、被検体5の体の向きを診察台Mに時に付けたマーカを、そのマーキングに合わせる。 
 2)被検体5の背中や腹部等の両脇に押し当てる又は挟み込む冶具で固定する。さらに、センシング系の座標系を診察台Nの座標系に合わせる。 
 なお、診察台N上で被検体の***を変える可能性がある場合には、被検体にマーカを付けたり、被検体を撮像カメラで撮影して画像処理したりして、直接、被検体の座標系を設定してもよい。また、本例における座標系の取り方は一例であり、一意的に決まる座標系であれば、原点や方向の異なる座標系や極座標系などを含め、任意の座標系を用いてもよい。
 続いて、CT等の画像情報からの被検体5の管空形状・配置情報の抽出と座標系変換を次の手順で行う。 
 1)挿入体20を挿入する被検体5の管空(臓器等)の形状・配置情報を抽出する。 
 2)被検体5の管空の形状・配置を、センサの座標系で表現可能にする。
また、特定方向(視点)からの管空画像の再構築は以下の様に行う。 
 3)CT情報を生成したCT装置に、挿入体支援システム1からCT情報座標系における方向/視点情報を送り、再構築させる。さらに、他の装置又は挿入体支援システム1内に、CT情報の生データとCT情報座標系での方向/視点情報を送って、再構築する。
 その後に、病変・治療箇所などの特定箇所の必要な情報抽出と座標変換は、次の手順で行う。 
 1)被検体5の臓器の形状情報でいびつな構造部分をパターン抽出や作業者の目視確認で抽出する。 
 2)CT情報で、特定の組織(がん等)に対応する色やパターン情報を持つ、臓器、又は、臓器に隣接する組織を有する部分を抽出する。
 CT撮影時と挿入体20の挿入時において、管空情報が異なることへの対応について、ずれの内容と対応方法を以下のa)乃至e)に示す。 
 a)被検体5の管空(臓器)と挿入体20先端の位置/向きのずれに対して、管空への挿入体挿入ルートの再設定を行う。再設定を行う際に、基準として次のものが挙げられる。管空の形状変化率最小/管空(臓器)長さ一定/従来の管空ルートに最短接続する。
 b)ガス注入/吸引・挿入操作、傷病等による被検体5の特定部位の大きさのずれに対しては、管空の断面積の増減比に応じて特定部位又は、その周囲の形状を変化させる。 
  b1)このずれ補正において、襞の大きさは、管空の断面積が小さくなれば、襞が大きくなるように補正し、反対に管空の断面積が大きくなれば、襞が小さくなるように補正する。 
  b2)第1の長さ変化として、挿入体20の挿入位置までの管空の長さに対しては、管空は挿入体20に沿った形状・配置とし、挿入体20の挿入位置先端近傍の管空の部位と挿入体の挿入量(挿入した長さ)の変化に応じて管空の長さを伸縮させる。3)第2の長さ変化として、挿入体20の挿入位置より先の部分の長さに対しては、1つの方法として、そのまま補正を行わない。
 さらに、他の方法として、特に大腸の襞の伸縮について、更に挿入された先見の形状・配置変化を予想する。 
 c)被検体5の管空(臓器)の新規項目発生。 
  挿入体20の挿入時に病変・治療痕・癒着等の新規項目が確認され、次第、管空情報に追加可能とする。 
  追加方法としては、以下の2つが挙げられる。 
  c1)自動で抽出及び追加する。 
  c2)作業者が確認・判断して抽出し、追加入力する。
 d)被検体5の臥位の違いによる、被検体5の内部(臓器)配置の偏り。
 図14に示した左側臥位、右側臥位、仰臥位1、仰臥位2等の被検体5の横たわる向きによる変化が、画像情報取得時と挿入体挿入時にあれば、その臥位の変化に基づいて、特定の管空や周囲の内蔵物(臓器等)の移動をCT画像情報から推測する。
 e)経時変化等による体型/特定部位の形状変化による形状、配置のずれの発生。
 画像情報取得時からの経時変化など変化が生じた場合、体重、腹囲、体脂肪率及び、内臓脂肪つき具合等の情報から、特定部位や被検体全体の形状、配置の変化を推測する。
 次に、支援情報生成部4について説明する。 
 上述した被検体情報抽出部2から出力された被検体情報と、挿入体情報抽出部3から出力された挿入体情報とを取捨選択して取り込み、又は、情報に適宜、加工を施すことにより操作支援情報を生成する。この操作支援情報としては、被検体情報と挿入体情報との組合せ、被検体情報と挿入体情報との組合せから導かれる被検体/挿入体の情報、挿入体の操作に関わる情報(推奨動作・指示・警告)等がある。これらの操作支援情報を次の表4に示す。
Figure JPOXMLDOC01-appb-T000004
 これらの操作支援情報は、操作者である医師らに、瞬時で応答し且つ、理解しやすく伝える必要がある。そのため、情報の内容はもちろん、伝達の仕方も重要であり、情報を分かりやすい形に加工/変換したり、出力の仕方を工夫したりする必要がある。 
 なお、操作関連情報の推奨動作については、図3に示したような挿入体の挿跋や湾曲操作に加え、送水や送気・吸気などの挿入体に関わる操作全てが対象となり、確実性や安全性を含めて挿入性や操作性が向上する支援情報であれば、どのようなものでも構わない。
 次に、記憶部6について説明する。 
 記憶部6では、取得・抽出・生成した各種情報の記憶及び読み出し、さらに各処理に必要な情報を予め記憶しておき、必要に応じて適宜読み出される。 
 本実施形態においては、以下の情報を記憶対象としている。
 1)各情報の取得部から取得した情報、 
 2)支援情報生成部で抽出・生成した情報とその中間情報、 
 3)支援情報を生成するためのプログラム、どのような支援情報を生成可能とするか等の設定、特定の状態と判断するための判断基準等。
 次に、表示部16について説明する。 
 挿入体支援システム1の表示部は、内視鏡システム(管状挿入システム)100が備える表示部16と兼用され、内視鏡画像と併せたり、又は単独で操作支援情報が表示出力される。出力形態は、表示部16による画面表示のみでもよいが、医師らの操作者へ迅速かつ分かりやすく伝達するため、音声や振動等で告知してもよい。さらに、画面表示と、音声や振動等とを組み合わせてもよい。表示部16も固定モニタだけではなく、ヘッドマウントディスプレイ等の装着携帯型の表示機器の利用も可能である。この場合には、音声は、イヤホンを利用して通告してもよい。
 操作支援情報の表示方式としては、常時に表示される情報と、特定の条件を満たしたときのみ表示される情報とに区分される。これらは、支援情報の出力の設定によって、所望する情報の出力様式を操作者が決定したり、挿入体支援システム1側で操作者の技量等に応じて設定してもよい。操作者の要望(設定)により、操作支援情報の出力が特定の状態になるまで全く出力されない設定も可能である。
 以上説明した本実施形態の挿入体支援システム1によれば、以下の作用効果を奏することができる。 
 操作支援情報を生成するために、事前に得た画像機器情報に基づく被検体情報とセンサによる挿入体情報を用いることで、被検体情報だけ又は、挿入体情報だけの場合に比べて、被検体5と挿入体の両方の情報が挿入体の挿入・操作時に得られ、挿入体の操作性の向上、ひいては、挿入性や観察/診断等の作業性の向上につながる。
 さらに、被検体5の外部の特定の方向又は、視点から内部を透視するCT装置、MRI装置等の三次元画像に基づけば、被検体内部の管空の形状・配置や病変部などの状況を正確に読み取ることができ、高い精度及び、多い情報量の被検体情報を得ることができる。
 また、挿入体20の挿入時に、CT装置51やMRI装置61等の大型の画像機器11とセンサを組み合わせて、同じ機能を実現しようとすると、挿入体20の挿入操作が大掛かりになることで利用できる施設が限定されたり、画像機器11によっては、X線や強力な電磁界などを長時間にわたり被検体の患者が浴びたり又は、リアルタイムに被検体情報が得られなかったりする可能性がある。そこで、内視鏡観察の事前に画像機器情報を取得しておくことで、画像機器情報を最適な環境で取得でき、かつ、必要な処理を極力事前に済ませることできるため、画像機器情報の精度を高めたり、挿入体の挿入時の情報処理の負荷が低減して高速な処理や安価な処理システムの採用が可能となったりする。
 また、前述したように、大腸のように観察対象が形状を変え得る被検体5の管空においては、被検体5の外部から内部が目視では直接観察できないため、形状を想定して挿入体を狙いの部位まで挿入したり、操作したりすることが容易ではない。これに対して、被検体情報とセンサ情報を用いることで、例えば、管空や挿入体5の形状・配置や特定部位の位置・分布・タイプ等の特徴を知ることができ、挿入体5の挿入や操作時に、管空や挿入体5の確認すべき状態情報を減らしたり、状態情報の確度を向上させたりすることができ、挿入体5の挿入性・操作性が向上する。形状を変え得る管空と同様に、個体差又は個人差の大きい管空についても同様な効果を奏する。
 前述した被検体情報及び操作支援情報は、被検体5の管空の形状又は、その配置に関わる管空形状・配置情報又は管空形状・配置2次情報を含んでいる。この管空形状・配置情報には、外部から得られた管空形状・配置情報とこれらの2次情報、及び、センサ情報を基に構築される管空形状・配置情報がある。さらには、外部から得られた管空形状・配置情報又は、これらの2次情報を、センサ情報を基に構築される管空形状・配置情報により修正・追加した情報も含まれる。画像機器11から得られる、このような管空形状・配置情報を操作支援情報とすることで、挿入体の挿入の仕方やどこまで挿入したかを、情報が無い場合に比べて、より正確に知ることができる。また、2次情報やセンサ情報による修正・追加情報を用いることで、よりシステムに合った又は、より正確な被検体の管空情報を得ることができる。このことで挿入体の挿入性・操作性が向上する。
 挿入体20に関する操作支援情報の生成に関わる情報としては、事前の画像機器情報、撮像画像情報、センサ情報、外部情報、被検体や操作者の情報、挿入体やシステム構成の情報、システムの設定や操作者の指示・判断等が挙げられる。これらの情報を基に、挿入体情報・被検体情報、さらには、操作支援情報を抽出・生成させる。
 また構成に記憶部6を備えることで、これらの情報の内、適宜望ましいもの又は、全てを記憶し、必要なものを必要なタイミングで読み出すことが可能となる。記憶部6を用いて、情報をデータベース化しておくことで、過去の支援情報を任意のタイミングで提示することが可能となる。それによって、被検体・管空の状態が概ねどうであるか、どう変化してきたか、次の挿入ではどうなっている可能性があるか、どのように挿入して、どう作業を行うとよいか、といったことを挿入体の挿入前に確認することができる。また、ビッグデータとして記憶しておくことで、後から有益な情報を抽出できる可能性もある。
 支援情報が、管空形状・配置2次情報と特定部位2次情報と挿入体の形状・配置に基づく、作業に関する作業関連情報、例えば、作業指示、管空情報と挿抜の操作指示、狭窄部通過注意、経路逸脱注意、危険警告/回避指示、を含むことで、挿入性の作業性が格段に向上する。
 次に、図15に示すフローチャートを参照して、本実施形態の挿入体支援システム1における操作支援情報の生成及び出力について説明する。 
 まず、予備段階として、内視鏡13と挿入体支援システム1との接続が行われて、IDタグ37を利用して操作支援の可否が判断され、支援可能であれば、操作支援のための設定及び初期化が行われる。その後、画像機器11からCT画像情報、MRI画像情報又は超音波画像情報の何れかからなる事前の画像機器情報が画像機器情報取得部10を通じて、被検体情報抽出部2に取り込まれる(ステップS1)。
 引き続き、必要に応じて不図示の外部機器等から外部情報取得部9を経て挿入体情報抽出部3に外部情報が取り込まれる(ステップS2)。尚、外部情報は設定により必要なだけ取得されるものであり、特に外部情報が不要であった場合には、このステップS2は、スキップされる。さらに、内視鏡13に搭載する形状センサ15と、挿入体センサ86と操作量センサにより検出された前述したセンサ情報がセンサ情報取得部8を通じて、挿入体情報抽出部3に取り込まれる(ステップS3)。
 次に、挿入体情報抽出部3は、取り込まれた情報のうちで、少なくともセンサ情報を用いて挿入体情報を抽出・生成し、被検体情報抽出部2及び、必要に応じて支援情報生成部4に送出される(ステップS4)。被検体情報抽出部2は、入力された挿入体情報の指定により、画像機器情報から画像機器2次情報を生成し(ステップS5)、さらに、画像機器情報又は、画像機器2次情報の少なくとも一方の情報を用いて、被検体情報を抽出・生成して支援情報生成部4に送出する(ステップS6)。
 さらに、支援情報生成部4は、被検体情報抽出部2からの被検体情報と挿入体情報抽出部3からの挿入体情報を用いて操作支援情報を生成する(ステップS7)。生成された操作支援情報は、表示部16等を通じて、画面表示、音声又は振動等を用いて操作者に出力される(ステップS8)。その後、設定された操作支援が終了したか否かを判断し(ステップS9)、支援が終了でなければ(NO)、ステップS2へ戻り、再度、外部機器から情報取得を行い、支援が終了であれば(YES)、挿入体支援のルーチンを終了する。
 次に図16に示すフローチャートを参照して、被検体の管空状態に関する情報の修正又は更新の処理について説明する。 
 まず、画像機器情報取得部10を通じて、画像機器11から三次元画像又は三次元断層画像からなる画像機器情報を被検体情報抽出部2に取り込む(ステップS11)。前述した図15のルーチンにより、被検体5の管空状態(形状や位置)を予測する(ステップS12)。操作者は、内視鏡13を把持し、挿入体20を被検体5の管空に挿入する(ステップS13)。この時、内視鏡13に搭載したセンサ部28からセンサ情報を取得して実際の被検体5の管空状態を生成し、予測された管空状態と実際の被検体5の管空状態とを比較して修正が必要か否かを確認する(ステップS14)。次に、予測された管空状態が適正であり修正が不要で終了するか否かを判断する(ステップS15)。予測された管空状態に修正が必要でなければ(YES)、予測された管空状態が支援情報生成部4に送出されて終了する。一方、予測された管空状態と実際の被検体5の管空状態とに差異があり、予測された管空状態に補正が必要であれば(NO)、センサ情報に基づき、予測された管空情報を修正し(ステップS16)、再度、ステップS13に戻り、挿入体の被検体5の管空への挿入を続ける。
 次に図17に示すフローチャートを参照して、推測した被検体の管空状態と、実測した被検体の管空状態とを提示する支援情報処理について説明する。 
 まず、画像機器情報取得部10を通じて、画像機器11から三次元画像又は三次元断層画像からなる画像機器情報が被検体情報抽出部2に取り込まれる(ステップS21)。前述した図15に示したルーチンにより、被検体5の管空状態(形状や位置)を予測し(ステップS22)、その予測された管空状態に基づく操作支援情報を生成し表示部16に画像表示させる(ステップS23)。
 次に、操作者は、内視鏡13を把持し、挿入体20を被検体5の管空に挿入する(ステップS24)。この時、内視鏡13に搭載したセンサ部28の更新されたセンサ情報を取得し、そのセンサ情報に基づき、実際の被検体5の管空状態を確認する(ステップS25)。その確認の後、支援情報生成部4は、実際の被検体5の管空状態に基づく操作支援情報を生成し表示部16に画像表示させる(ステップS26)。次に、予測された管空状態による操作支援情報と実際の被検体5の管空状態による操作支援情報とを比較して、修正が不要で終了するか否かを判断する(ステップS27)。ここで、修正が必要でなければ(YES)、終了する。一方、予測された管空状態と実際の被検体5の管空状態とに差異があり、予測された管空状態に補正が必要であれば(NO)、センサ情報に基づき、予測された管空情報を修正し(ステップS28)、再度、ステップS24に戻り、挿入体の被検体5の管空への挿入を続ける。
 図18には、表示部16に表示される操作支援情報の一例を示している。
 この操作支援情報は、内視鏡13を被検体5の大腸へ挿入している状況である。通常、操作者からは、被検体内の挿入状況は、内視鏡13で撮像された撮像画像以外に直接は分からない。本実施形態では、以下の情報が内視鏡13の挿入体5を挿入する際の操作支援情報となる。
 1)被検体5における大腸111の配置及び形状の情報:画像機器11からの画像機器情報の一部を利用して生成する。 
 2)内視鏡の挿入体20の湾曲形状の情報:複数のセンサ112から取得したセンサ情報から生成する。 
 3)大腸111内の内視鏡の挿入体20の配置及び形状の情報:1)と2)の組合せから生成する。 
 4)内視鏡の照明光113が照明される範囲内(観察視野又は、撮像視野)の大腸111の病変部114の情報:1)と2)の組合せから生成する。
 次に、表示部16の画面上に表示される操作支援情報による挿入状態の検出例について説明する。 
 図19は、第1の表示例として、挿入状態検出を表示している画面であり、内視鏡13の挿入体20の先端部の向きと、特定部位である病変部の配置関係を示している。 
 この表示例の操作支援情報としては、1)大腸111の配置及び形状の情報、2)挿入体20の配置及び形状の情報、3)挿入体20の先端部の位置と撮像する向きの情報が表示されている。 
 図20は、第2の表示例として挿入状態検出を表示している画面であり、内視鏡13の挿入体20の先端部の向きと、特定部位である病変部114の位置関係を示している。 
 この表示例の操作支援情報としては、大腸111と挿入体20との配置関係に加え、挿入体20の先端部から病変部までの進行方向と距離及び、先端部が到達するための内視鏡の挿入操作の指示を時々刻々と表示を更新することで、病変への到達が極めて容易になる。
 図21A,21Bは、第3の表示例として、挿入体20の先端部と、特定部位との近接関係から操作支援情報の表示の有無を切り替えている例を示している。 
 図21Aは、挿入体20の先端部と、特定部位との距離が遠いため、大腸111内における先端部の位置表示だけであり、特定部位に関する情報は表示していない。挿入体20の大腸111への挿入が進行して、図21Bに示す距離が一定距離以下の位置に挿入体20の先端部が到達した以降は、病変情報115として、病変部のタイプ(病変:線種)とサイズ(サイズ:15mm)を表示している。また、大腸111内に、複数の特定部位が存在し、個々に確認が必要な場合には、それらの病変部の位置を全て表示し、一定距離以下の位置に先端部が到達した以降の病変又は、先端部と最も近い位置の病変のみの病変情報を表示するように設定することで、操作者の作業効率が向上する。
 さらに、挿入体20の先端部からの向き及び距離等の操作支援情報の出力状況/出力内容を挿入体20の先端部と特定部位との関係に基づいて変更する。例えば、一定の距離に接近した際に、表示を開始し、一定の距離以上に離れたら、表示を終了する。ここでは、挿入体20の先端部の方向が特定部位への方向と概ね合致したときのみ表示する。その特定部位の内容によって表示内容を切り替えることによって、近接する特定部位に応じた操作支援状況の提供ができ且つ、不必要な情報を提供せずに済む。
 次に、図22は、表示部16の画面上に内視鏡の撮像画像(スコープ画像121)と画像機器情報から生成した画像機器2次情報からなる再構成画像を横並びに表示した例を示している。この表示においては、内視鏡13で撮像したスコープ画像121に対して、視点及び画面サイズが概ね一致するように、機器2次情報となる再構成画像122を挿入体情報による指定により画像機器情報から生成している。再構成画像122には、画像機器情報(又は、外部情報)に含まれる病変と疑われる部位123が観察又は治療の対象領域に重ねて表示されている。再構成画像122では、病変と疑われる部位123をマーキングしているが、このような画像処理により、観察又は治療の対象領域、若しくは該対象領域を含むエリアとして、周囲に比べて明るい色で表示する等、目立つ表示手法をとることで、挿入体20の操作者に対して、支援情報が一目で注視できるように、区分して表示している。
 挿入体情報である大腸に対する挿入体20の先端部の位置や、その撮像部の視点の向きは、スコープ画像121又はセンサ情報から推定して求めることができる。このように内視鏡の撮影画像と共に、画像上に観察/治療対象領域を明示することで見落としなく、観察対象部位へ挿入体20の先端部を誘導させることができる。
 また、観察/治療対象領域を実際に内視鏡で確認した際に、その所在すべき位置が異なったり、発見できなかったり、他に新たな部位の存在を確認したり、病変状態が想定とは異なるタイプであったりした場合には、被検体情報を修正/更新することで、次の内視鏡の挿入時の診断や治療に役立てることが可能である。この様な修正や更新を行うことになる理由は、表5に示す原因が挙げられる。
Figure JPOXMLDOC01-appb-T000005
 図23は、挿入された挿入体20により大腸111の形状に変形が生じた例を示す図である。内視鏡13の挿入体20が挿入された際に、移動可能な大腸111の形状に変形が生じた及び、大腸111の形状が事前に得た画像機器情報に基づき生成した形状とは異なってしまう場合がある。
 そのため、挿入体20の挿入によって大腸111の形が大きく変形してしまった情報を取得した場合には、挿入体20が本来の挿入経路から逸脱していることを警告する。さらに、大腸111に負荷が掛かっている場合には、警告音を出して、適宜、挿入体20の挿入動作を直ちに停止したり、挿入体20を引き戻す操作を行ったりするように指示を行う。この様な警告指示を出すことで、誤った方向への挿入を抑制することができ、観察対象部位までの挿入が容易になったり、挿入時間が短縮されたり、管空である大腸や他の臓器を含めた患者への負荷を抑制することができる。
 また、センサ情報で取得した大腸111の形状が、事前に得た画像機器情報によるものとは異なっていた場合には、現状の大腸の形状及び配置となるように、被検体情報を修正する。又は、現状の大腸の形状及び配置に応じた新たな挿入体20の挿入経路を設定することで挿入経路を修正する。このように、大腸111の形状及び配置や挿入経路を修正/更新することで、次の挿入体20の挿入操作が容易になる。
 次に、図24を参照して、支援情報や支援情報の生成の仕方の例について説明する。 
 前述した図2に示すように、内視鏡13の挿入体20の操作部30の上部には、IDタグ37が装着されている。このIDタグ37によるIDタグ情報は、内視鏡の型式・搭載オプションなどが挙げられる。搭載オプションには、例えば、センサが組み込まれている場合は、センサタイプや構成が含まれる。更には、内視鏡13が利用可能な機能、正常/異常といった製品状態やメンテナンス履歴などを併せ持つようにすることができる。また、こうした情報以外にも、IDタグ37には、型番等の判別情報だけでなく、内視鏡の仕様や搭載されたオプション機器やセンサ類の情報が記載されていてもよい。
 このようなIDタグ情報の中に、挿入体支援システム1を利用可か否かの情報や支援可能な機能情報を加えている。内視鏡13が挿入体支援システム1に電気的等に接続された際に、このIDタグ37を読み取り、設定されているIDタグ情報からシステムにあった支援内容の設定が可能となる。例えば、内視鏡13には、古い機種・新しい機種、及び挿入体が細い機種又は太い機種、挿入体の先端の曲げやすい機種、挿入体の固さ調整が可能な機種などがあり、それぞれの機種にあった操作支援が設定できる。
 このような支援情報の提供内容や提供方法の切替には、図24に示すように、支援情報切替設定部132を挿入体支援システム1の支援情報生成部131に搭載させることで可能となる。この例では、支援情報切替設定部132が支援情報生成部131内にあるが、挿入体支援システム1内に設けられるのであれば、配置箇所は限定されない。このように内視鏡13の特性や仕様に応じた、挿入操作のポイントや挿入困難時の対処の仕方を、機種ごとに最適な支援情報として示すことができ、操作者の負担や不安が大きく改善される。
1…挿入体支援システム、2…被検体情報抽出部、3…挿入体情報抽出部、4…支援情報生成部、5…被検体、6…記憶部、7…撮像情報取得部、8…センサ情報取得部、9…外部情報取得部、10…画像機器情報取得部、11…画像機器、12…次情報生成部、13…内視鏡、14…画像処理部、15…形状センサ、16…表示部(モニタ)、18…光源装置、19…制御装置、20…挿入体、21…先端硬質部、23…湾曲部、25…可撓管部、27…ユニバーサルケーブル、28…センサ部、30…操作部、33…把持部、34…操作ボタン、35…挿入口部、36…湾曲操作部、37…IDタグ、38…被検出体、39…撮像部、51…CT装置、55…撮像部、56…コリメータ、57…画像情報、58…ヘリカルスキャン、61…MRI装置、65…超音波診断装置、66…装置本体、67…プローブ、67a…コンベックス型プローブ、67b…リニア型プローブ、68…モニタ部、69…キャスタ架台、70…医者、71…センサ部本体、72…光ファイバ、73…反射部、74…形状演算部、75…制御部、76…光源、77…投光レンズ、8…アイソレータ、79…反射ミラー、80…集光レンズ、81…集光レンズ、82…光検出部、85…口腔部)、86…挿入体センサ、91…管空情報統合処理部、92…位置情報統合処理部、93…管空関連情報推定生成部、94…管空位置関連情報推定生成部、100…内視鏡システム、111…大腸、112…センサ、113…照明光、114…病変部、115…病変情報、121…スコープ画像、122…再構成画像、123…部位、131…支援情報生成部、132…支援情報切替設定部、A1…進退移動量、A2…捻り量、A3…上下方向、A4…左右方向

Claims (31)

  1.  被検体の所定の管空に関する二次元以上の形状情報を含み事前に得られた管空情報に基づき、前記管空へ挿入する挿入体の挿抜、観察及び治療の作業のための支援情報を提供する挿入体支援システム。
  2.  二次元以上の画像情報を取得する画像機器によって事前に得られる前記被検体の所定の管空に関する前記管空情報を含む画像機器情報を取得する画像機器情報取得部と、
     前記管空へ挿入する挿入体の状態を検出するセンサから得られたセンサ情報を取得するセンサ情報取得部と、
     前記画像機器情報から被検体情報を抽出・生成する被検体情報抽出部と、
     前記センサ情報から挿入体情報を抽出・生成する挿入体情報抽出部と、
     前記被検体情報と前記挿入体情報から操作者の内視鏡の挿入・操作を支援する操作支援情報を生成する支援情報生成部と、
     前記操作支援情報を出力する出力部と、
    を有する請求項1に記載の挿入体支援システム。
  3.  前記被検体の所定の管空は、前記挿入体の挿入に伴って、形状を変えうることを特徴とする請求項1に記載の挿入体支援システム。
  4.  前記被検体情報は、前記被検体の外部の特定の方向又は、視点から内部を透視する三次元画像を撮像する画像機器から得られる画像機器情報の一部又は、前記画像情報を基に得られた画像機器2次情報を含むことを特徴とする請求項2に記載の挿入体支援システム。
  5.  前記画像機器2次情報は、特定の視点/断面によって再構成された画像情報である画像2次情報を含むことを特徴とする請求項4に記載の挿入体支援システム。
  6.  前記画像機器2次情報は、特定の視点/断面における管空の形状又は、配置を示す管空形状・配置2次情報を含むことを特徴とする請求項4に記載の挿入体支援システム。
  7.  前記画像機器情報又は、前記画像機器2次情報は、挿入体の挿抜の際の注目部位や観察/診断・治療の作業対象部位である特定部位に関する特定部位情報を更に含むことを特徴とする請求項4乃至6の何れか1項に記載の挿入体支援システム。
  8.  前記被検体情報抽出部は、前記画像機器2次情報を生成する画像機器2次情報生成部を有することを特徴とする請求項4乃至7の何れか1項に記載の挿入体支援システム。
  9.  前記挿入体は、前記管空内の画像を撮像可能な撮像部を、更に有し、
     前記被検体情報及び、前記操作支援情報は、前記撮像部から得られる管空の画像に対応する、前記画像機器情報又は、前記画像機器2次情報を含むことを特徴とする請求項4に記載の挿入体支援システム。
  10.  前記被検体情報及び、前記操作支援情報は、更に、挿入体の挿抜の注目部位や観察/診断・治療の作業対象部位である特定部位に対応した特定部位2次情報を含むことを特徴とする請求項9に記載の挿入体支援システム。
  11.  前記被検体情報及び、前記操作支援情報は、前記管空の形状、又は、配置に関わる管空形状・配置情報又は、管空形状・配置2次情報を含むことを特徴とする請求項4に記載の挿入体支援システム。
  12.  前記被検体情報及び前記操作支援情報は、更に、挿入体の挿抜の際の注目部位や観察/診断・治療などの作業対象部位である特定部位に対応した特定部位情報を含むことを特徴とする請求項11に記載の挿入体支援システム。
  13.  前記被検体情報抽出部は、前記画像機器情報と前記センサ情報に含まれる管空に関する情報を統合するための、管空情報統合処理部を更に含む、請求項2に記載の挿入体支援システム。
  14.  前記管空情報統合処理部は、前記画像機器情報と前記センサ情報に含まれる位置情報を統合するための、位置情報統合処理部を更に含む、請求項13に記載の挿入体支援システム。
  15.  位置情報統合処理部は、支援情報を生成又は、提示するために必要となる前記管空に関する位置座標を補間又は、推定により生成する、請求項14に記載の挿入体支援システム。
  16.  前記位置情報統合処理部は、前記画像機器情報に基づく管空情報と前記センサ情報に基づく管空の位置関連情報に、形状、大きさ、位置及び向きの何れかが同一の部分的箇所に差異のある部分又は、欠落のある部分が存在する場合に、支援情報の生成又は、提示に必要となる現状の管空の位置関連情報を推定を含めて生成することが可能な管空位置関連情報推定生成部を有する、請求項14に記載の挿入体支援システム。
  17.  前記管空位置関連情報推定生成部は、前記センサ情報に含まれる位置情報を正しいものとして、現状の管空の位置関連情報を生成する、請求項16に記載の挿入体支援システム。
  18.  前記挿入体の先端近傍には、前記被検体の管空を撮像し、撮像画像情報を得る撮像部を更に有し、
    前記挿入体情報抽出部は、前記撮像画像情報又は、前記センサ情報の少なくとも一方を基に、前記被検体情報の修正又は更新のいずれかを行うことを特徴とする請求項4に記載の挿入体支援システム。
  19.  前記センサは、前記挿入体の形状、配置及び姿勢又は、先端部の位置、向き及び姿勢を含む先端情報の少なくとも一つを検出/推定可能であり、
     前記被検体情報は、前記管空の形状又は、配置に関わる管空形状・配置情報を含み、
     前記挿入体情報抽出部は、前記センサから得られるセンサ情報を基に、前記挿入体の形状又は、配置に関する挿入体形状・配置情報を挿入体情報の少なくとも一部として生成し、
     前記管空形状・配置情報と前記挿入体形状・配置情報に基づいて、前記被検体情報の修正又は、更新を行うことを特徴とする請求項18に記載の挿入体支援システム。
  20.  前記被検体情報の修正又は更新は、いずれもリアルタイムに行うことを特徴とする請求項18に記載の挿入体支援システム。
  21.  前記センサは、前記挿入体の形状及び姿勢を含む配置情報又は、前記挿入体の先端部の位置、向き及び姿勢を含む先端情報の少なくとも1つを検出/推定可能であり、
     前記センサから得られた前記センサ情報に基づく前記挿入体情報と前記画像機器情報に基づく前記被検体情報から前記操作支援情報を生成することを特徴とする請求項4に記載の挿入体支援システム。
  22.  前記挿入体の先端近傍には、前記被検体の管空を撮像し、撮像画像情報を得る撮像部を更に有し、
    前記挿入体の形状・配置情報又は、先端情報と前記画像機器情報から、前記撮像画像情報に対応する画像機器2次情報を生成することを特徴とする請求項21の挿入体支援システム。
  23.  前記画像機器2次情報は、特定の視点/断面における管空の形状及び配置を示す管空形状・配置2次情報を含み、
     前記挿入体情報は、前記特定の視点/断面における前記挿入体の形状及び配置情報を含み、
     前記操作支援情報は、前記管空形状・配置2次情報と前記挿入体の形状及び配置情報とを合わせこんだ画像情報を含むことを特徴とする請求項21の挿入体支援システム。
  24.  前記操作支援情報は、
     挿入体の挿抜の際の注目部位や観察/診断・治療の作業対象部位である特定部位と前記挿入体との配置関係に基づく、前記挿入体の先端からの向き及び距離を含む支援情報を有することを特徴とする請求項21の挿入体支援システム。
  25.  前記挿入体の挿抜の際の注目部位や観察/診断・治療などの作業対象部位である特定部位と、
     前記挿入体との距離、観察/作業可能範囲内外の配置関係に基づいて、前記挿入体の先端部からの向き及び距離を含む操作支援情報の出力状況/出力内容を変更することを特徴とする請求項21の挿入体支援システム。
  26.  前記画像機器2次情報は、特定の視点/断面における管空の形状/配置を示す管空形状・配置2次情報を含み、
     前記操作支援情報は、前記管空形状・配置2次情報と前記挿入体の形状及び配置に基づく、前記挿入体の挿抜操作に関する挿抜操作関連情報を含むことを特徴とする請求項21の挿入体支援システム。
  27.  前記画像機器2次情報は、
     特定の視点/断面における管空の形状/配置を示す管空形状・配置2次情報と、
     前記挿入体の挿抜の際の注目部位や観察/診断及び治療の作業対象部位である特定部位についての情報である特定部位2次情報を含み、
     前記操作支援情報は、前記管空形状・配置2次情報と前記特定部位2次情報と前記挿入体の形状及び配置に基づく、作業に関する作業関連情報を含むことを特徴とする請求項21の挿入体支援システム。
  28.  取得又は、抽出・生成した情報の少なくとも一部を記憶・読み出しする、又は/および、前記操作支援情報の生成に必要な情報を予め記憶し、必要な時に読み出す記憶部を更に有する、請求項2に記載の挿入体支援システム。
  29.  前記挿入体は、挿入体の識別情報、仕様情報、状態情報の内、少なくとも1つの情報を含むIDタグを有し、
    前記少なくとも1つの情報に基づいて、前記挿入体支援システムが提供可能な前記支援情報を判別することを特徴とする請求項1に記載の挿入体支援システム。
  30. 前記IDタグからの前記少なくとも1つの情報に基づいて、
    提供可能な前記支援情報を生成するための設定を行うことを特徴とする請求項29に記載の挿入体支援システム。
  31. 挿入体支援システムの起動時、または、システム構成要素を接続、または、取り外しした際に、前記挿入体支援システムが提供可能な前記支援情報を判別することを特徴とする請求項29に記載の挿入体支援システム。
PCT/JP2015/079575 2015-10-20 2015-10-20 挿入体支援システム WO2017068650A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017546316A JP6600690B2 (ja) 2015-10-20 2015-10-20 挿入体支援システム
PCT/JP2015/079575 WO2017068650A1 (ja) 2015-10-20 2015-10-20 挿入体支援システム
EP15906656.2A EP3366188A4 (en) 2015-10-20 2015-10-20 INTRODUCTION BODY SUPPORT SYSTEM
US15/957,983 US20180235716A1 (en) 2015-10-20 2018-04-20 Insertion unit support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/079575 WO2017068650A1 (ja) 2015-10-20 2015-10-20 挿入体支援システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/957,983 Continuation US20180235716A1 (en) 2015-10-20 2018-04-20 Insertion unit support system

Publications (1)

Publication Number Publication Date
WO2017068650A1 true WO2017068650A1 (ja) 2017-04-27

Family

ID=58557059

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/079575 WO2017068650A1 (ja) 2015-10-20 2015-10-20 挿入体支援システム

Country Status (4)

Country Link
US (1) US20180235716A1 (ja)
EP (1) EP3366188A4 (ja)
JP (1) JP6600690B2 (ja)
WO (1) WO2017068650A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019008726A1 (ja) * 2017-07-06 2019-01-10 オリンパス株式会社 管状挿入装置
JPWO2021111756A1 (ja) * 2019-12-02 2021-06-10
US20220322917A1 (en) * 2020-03-10 2022-10-13 Hoya Corporation Endoscope processor, endoscope, and endoscope system
WO2023195103A1 (ja) * 2022-04-06 2023-10-12 オリンパスメディカルシステムズ株式会社 検査支援システムおよび検査支援方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6704255B2 (ja) * 2016-01-19 2020-06-03 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、医療用観察システム及び画揺れ補正方法
CN112423645B (zh) * 2018-07-20 2023-10-31 富士胶片株式会社 内窥镜***
WO2021071724A1 (en) * 2019-10-07 2021-04-15 Boston Scientific Scimed, Inc. Devices, systems, and methods for positioning a medical device within a body lumen
US20230346479A1 (en) * 2020-08-13 2023-11-02 Intuitive Surgical Operations, Inc. Alerting and mitigating divergence of anatomical feature locations from prior images to real-time interrogation
CN113729859B (zh) * 2021-10-08 2023-03-24 重庆市急救医疗中心 血肿抽取***、导航***及血肿边界判断方法
CN113729942B (zh) * 2021-10-08 2023-03-24 重庆市急救医疗中心 基于混合现实技术的血肿清除设备智能定位装置及导航***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012165838A (ja) * 2011-02-10 2012-09-06 Nagoya Univ 内視鏡挿入支援装置
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL181470A (en) * 2006-02-24 2012-04-30 Visionsense Ltd Method and system for navigation within a flexible organ in the human body
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
EP3023055B1 (en) * 2008-02-12 2017-12-13 Covidien LP Controlled perspective guidance method
US8337397B2 (en) * 2009-03-26 2012-12-25 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient
EP2837326A4 (en) * 2012-09-07 2016-02-24 Olympus Corp MEDICAL APPARATUS

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012165838A (ja) * 2011-02-10 2012-09-06 Nagoya Univ 内視鏡挿入支援装置
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3366188A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019008726A1 (ja) * 2017-07-06 2019-01-10 オリンパス株式会社 管状挿入装置
CN110831476A (zh) * 2017-07-06 2020-02-21 奥林巴斯株式会社 管状***装置
JPWO2019008726A1 (ja) * 2017-07-06 2020-03-19 オリンパス株式会社 管状挿入装置
CN110831476B (zh) * 2017-07-06 2022-05-17 奥林巴斯株式会社 管状***装置及其工作方法
JPWO2021111756A1 (ja) * 2019-12-02 2021-06-10
WO2021111756A1 (ja) * 2019-12-02 2021-06-10 富士フイルム株式会社 内視鏡システム、制御プログラム、及び表示方法
JP7335976B2 (ja) 2019-12-02 2023-08-30 富士フイルム株式会社 内視鏡システム、制御プログラム、及び表示方法
US20220322917A1 (en) * 2020-03-10 2022-10-13 Hoya Corporation Endoscope processor, endoscope, and endoscope system
WO2023195103A1 (ja) * 2022-04-06 2023-10-12 オリンパスメディカルシステムズ株式会社 検査支援システムおよび検査支援方法

Also Published As

Publication number Publication date
US20180235716A1 (en) 2018-08-23
JPWO2017068650A1 (ja) 2018-08-09
JP6600690B2 (ja) 2019-10-30
EP3366188A4 (en) 2019-11-13
EP3366188A1 (en) 2018-08-29

Similar Documents

Publication Publication Date Title
JP6600690B2 (ja) 挿入体支援システム
KR102558061B1 (ko) 생리적 노이즈를 보상하는 관강내 조직망 항행을 위한 로봇 시스템
JP6200152B2 (ja) 医療処置におけるトラッキング方法及び装置
JP4733243B2 (ja) 生検支援システム
JP5159995B2 (ja) 内視鏡システム
KR20200007896A (ko) 생검 장치 및 시스템
JP2021505270A (ja) コマンド指示されていない器具の回動を修正するシステムおよび方法
JP4709946B2 (ja) 医療機器システムおよび医療器具のキャリブレーション方法
JP5932172B2 (ja) 内視鏡システム
WO2004023986A1 (ja) 医療処置システム、内視鏡システム、内視鏡挿入動作プログラム及び内視鏡装置
WO2014129436A1 (ja) 被検体挿入システム
US20190142523A1 (en) Endoscope-like devices comprising sensors that provide positional information
JPWO2009084345A1 (ja) 医療機器システム
CN112292062A (zh) 具有一体式导航传感器的内窥镜
JP6270026B2 (ja) 内視鏡観察支援装置
EP2957212A1 (en) Relative position detection system for tube-like device, and endoscope device
JP4436638B2 (ja) 内視鏡装置及び内視鏡挿入動作プログラム
CN106659365B (zh) 导航***、导航***的工作方法
JP2006320427A (ja) 内視鏡手術支援システム
JP5613353B2 (ja) 医療装置
JP2014204904A (ja) 医用ガイドシステム
US20220202500A1 (en) Intraluminal navigation using ghost instrument information
JP5317874B2 (ja) 内視鏡及び内視鏡システム
JP2005058378A (ja) 手術用観察システム
JP2005021355A (ja) 手術支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15906656

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017546316

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2015906656

Country of ref document: EP