WO2022202201A1 - 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム Download PDF

Info

Publication number
WO2022202201A1
WO2022202201A1 PCT/JP2022/009240 JP2022009240W WO2022202201A1 WO 2022202201 A1 WO2022202201 A1 WO 2022202201A1 JP 2022009240 W JP2022009240 W JP 2022009240W WO 2022202201 A1 WO2022202201 A1 WO 2022202201A1
Authority
WO
WIPO (PCT)
Prior art keywords
cross
image
image processing
display
control unit
Prior art date
Application number
PCT/JP2022/009240
Other languages
English (en)
French (fr)
Inventor
克彦 清水
弘之 石原
泰一 坂本
俊祐 吉澤
和浩 里見
義直 矢崎
Original Assignee
テルモ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テルモ株式会社 filed Critical テルモ株式会社
Priority to CN202280023708.1A priority Critical patent/CN117062571A/zh
Priority to JP2023508894A priority patent/JPWO2022202201A1/ja
Publication of WO2022202201A1 publication Critical patent/WO2022202201A1/ja
Priority to US18/472,474 priority patent/US20240013387A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Definitions

  • the present disclosure relates to an image processing device, an image processing system, an image display method, and an image processing program.
  • Patent Documents 1 to 3 describe techniques for generating three-dimensional images of heart chambers or blood vessels using a US imaging system.
  • US is an abbreviation for ultrasound.
  • Patent Document 4 describes a technique for displaying a ring or square representing the position of the tip of a catheter with electrodes on a three-dimensional image.
  • IVUS is an abbreviation for intravascular ultrasound.
  • IVUS is a device or method that provides two-dimensional images in a plane perpendicular to the longitudinal axis of the catheter.
  • a three-dimensional image that expresses the structure of a living tissue such as a heart chamber or a blood vessel is automatically generated from the two-dimensional IVUS image, and the generated three-dimensional image is displayed to the operator. can be considered.
  • a 3D mapping system in which a position sensor is mounted on a catheter and draws a three-dimensional image using the position information when the position sensor touches the myocardial tissue, is mainly used in the procedure, but it is very expensive. need. Circumferential isolation of the PV or SVC requires an operation to mark which part has been ablated, but if IVUS can be used to complete such an operation, the cost may be reduced. be.
  • PV is an abbreviation for pulmonary vein.
  • SVC is an abbreviation for superior vena cava.
  • An object of the present disclosure is to improve the utility of systems for marking at least one location associated with living tissue.
  • An image processing apparatus refers to tomographic data, which is a data set obtained by using a sensor that moves in the lumen of a living tissue, to perform the measurement of the living tissue perpendicular to the movement direction of the sensor.
  • control unit changes the color, brightness, transparency, pattern, size, shape, or orientation of the mark according to the distance.
  • control unit further performs control to display the distance when performing control to display the mark.
  • control unit hides the mark when the distance exceeds a threshold.
  • control unit changes the mark depending on whether the at least one point exists before or after the cross section in the movement direction.
  • the at least one location is an ablated location of the living tissue
  • the controller controls, when the cross-sectional image is being displayed, a catheter for cauterizing the living tissue and the at least one location. Further control is performed to display the distance between one point.
  • control unit controls to display the distance between the catheter inserted into the biological tissue and the one location on the cross-sectional image;
  • control is further performed to display the distance between the catheter and the location closest to the catheter among the plurality of locations on the cross-sectional image.
  • control unit controls to display a line connecting the catheter inserted into the biological tissue and the one location on the cross-sectional image
  • control is further performed to display on the cross-sectional image a line connecting the catheter and the location closest to the catheter among the plurality of locations.
  • control unit refers to the tomographic data, generates three-dimensional data representing the biological tissue, displays the generated three-dimensional data as a three-dimensional image on the display, and controls the at least one location. control to display the distance between the catheter inserted in the biological tissue and the one point on the three-dimensional image when there is only one point, and when the at least one point is multiple places, the catheter and a point closest to the catheter among the plurality of points on the three-dimensional image.
  • control unit refers to the tomographic data, generates three-dimensional data representing the biological tissue, displays the generated three-dimensional data as a three-dimensional image on the display, and controls the at least one location.
  • control to display a line connecting the catheter inserted in the biological tissue and the one place on the three-dimensional image, and when the at least one place is multiple places, the catheter and Control is further performed to display on the three-dimensional image a line connecting a point closest to the catheter among the plurality of points.
  • control unit receives a user's operation to specify the at least one location on the cross-sectional image.
  • control unit causes the display to display a new image representing a cross section corresponding to the position of the sensor as the cross section image each time a new data set is obtained using the sensor.
  • An image processing system as one aspect of the present disclosure includes the image processing device and the sensor.
  • the image processing system further includes the display.
  • An image display method refers to tomographic data, which is a data set obtained by using a sensor that moves in the lumen of a living tissue, to obtain an image of the living tissue perpendicular to the moving direction of the sensor.
  • An image display method for displaying a cross-sectional image representing a cross-section on a display wherein a computer acquires designation data designating at least one location in a space corresponding to the cross-sectional data, and the computer displays the cross-sectional image. and performing control to display a different mark at a position corresponding to the at least one location in the cross-sectional image depending on the distance between the at least one location in the moving direction and the cross section. .
  • An image processing program refers to tomographic data, which is a data set obtained by using a sensor that moves in the lumen of a living tissue, and extracts the image of the living tissue perpendicular to the moving direction of the sensor. a process of acquiring designation data designating at least one location in a space corresponding to the tomographic data in a computer that displays a cross-sectional image representing the cross section on a display; and performing control to display a different mark depending on the distance between the at least one location in the moving direction and the cross section at a position corresponding to the at least one location in the moving direction.
  • FIG. 1 is a perspective view of an image processing system according to an embodiment of the present disclosure
  • FIG. FIG. 3 is a diagram showing an example of a three-dimensional image and cross-sectional images displayed on a display by the image processing system according to the embodiment of the present disclosure
  • FIG. FIG. 4 is a diagram showing an example of a cutting area formed by the image processing system according to the embodiment of the present disclosure
  • FIG. 1 is a block diagram showing the configuration of an image processing device according to an embodiment of the present disclosure
  • FIG. 2 is a perspective view of a probe and drive unit according to an embodiment of the present disclosure
  • 4 is a flow chart showing the operation of the image processing system according to the embodiment of the present disclosure
  • 4 is a flow chart showing the operation of the image processing system according to the embodiment of the present disclosure
  • FIG. 3 is a diagram showing an example of designated locations in the image processing system according to the embodiment of the present disclosure
  • FIG. FIG. 3 is a diagram showing an example of designated locations in the image processing system according to the embodiment of the present disclosure
  • FIG. FIG. 3 is a diagram showing an example of designated locations in the image processing system according to the embodiment of the present disclosure
  • FIG. FIG. 3 is a diagram showing an example of designated locations in the image processing system according to the embodiment of the present disclosure
  • FIG. FIG. 3 is a diagram showing an example of designated locations in the image processing system according to the embodiment of the present disclosure
  • FIG. 4 is a flow chart showing the operation of the image processing system according to the embodiment of the present disclosure
  • FIG. 4 is a diagram showing the result of binarizing a cross-sectional image of living tissue in the embodiment of the present disclosure
  • FIG. 5 is a diagram showing the result of extracting a point cloud of the inner wall surface of a living tissue in the embodiment of the present disclosure
  • FIG. 4 is a diagram showing the result of calculating the center-of-gravity position of the cross section of the living tissue in the embodiment of the present disclosure
  • FIG. 5 is a diagram showing results of calculating the center-of-gravity positions of multiple cross-sections of a living tissue in the embodiment of the present disclosure
  • FIG. 17 is a diagram showing the result of smoothing the result of FIG. 16;
  • FIG. 16 is a diagram showing the result of smoothing the result of FIG. 16;
  • FIG. 3 is a diagram showing an example of designated locations in the image processing system according to the embodiment of the present disclosure
  • FIG. FIG. 3 is a diagram showing an example of designated locations in the image processing system according to the embodiment of the present disclosure
  • FIG. 4 is a diagram showing examples of marks displayed on the display by the image processing system according to the embodiment of the present disclosure
  • FIG. 4 is a flow chart showing the operation of the image processing system according to the embodiment of the present disclosure
  • FIG. 10 is a diagram showing an example of designated locations in an image processing system according to a modification of the embodiment of the present disclosure
  • FIG. 10 is a diagram showing an example of designated locations in an image processing system according to a modification of the embodiment of the present disclosure
  • FIG. 10 is a diagram showing an example of designated locations in an image processing system according to a modification of the embodiment of the present disclosure
  • FIG. 11 is a diagram showing an example of marks displayed on a display by an image processing system according to a modified example of the embodiment of the present disclosure
  • FIG. 10 is a diagram showing an example of marks displayed on the display by an image processing system according to another modified example of the embodiment of the present disclosure
  • FIG. 10 is a diagram showing an example of a three-dimensional image and cross-sectional images displayed on a display by an image processing system according to still another modification of the embodiment of the present disclosure
  • FIG. 1 An outline of the present embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 An outline of the present embodiment will be described with reference to FIGS. 1 to 4.
  • the image processing apparatus 11 refers to the tomographic data 51, which is a data set obtained by using the sensor moving in the lumen 61 of the living tissue 60, and scans the living tissue 60 perpendicular to the movement direction of the sensor.
  • the computer causes the display 16 to display a cross-sectional image 54 representing a cross-section 64 of the .
  • the image processing device 11 acquires designation data that designates at least one point in the space corresponding to the tomographic data 51 as a point Pd.
  • designation data designates at least one point in the space corresponding to the tomographic data 51 as a point Pd.
  • six locations on the inner wall surface 65 of the living tissue 60 cauterized by the catheter 63 are designated as points P1, P2, P3, P4, P5, and P6.
  • the image processing device 11 displays different marks 55 depending on the distance between the point Pd in the movement direction of the sensor and the cross-section 64 at the position corresponding to the point Pd in the cross-sectional image 54 . to control.
  • the position corresponding to the point Pd in the cross-sectional image 54 is a position obtained by shifting the point Pd to the same position as the cross-section 64 in the movement direction of the sensor.
  • marks M1, M2, M3, M4, M5 and M6 are displayed at positions corresponding to points P1, P2, P3, P4, P5 and P6 in the cross-sectional image 54, respectively.
  • the marks M5 and M6 are displayed in the darkest color because the points P5 and P6 are present on the cross section 64.
  • FIG. The mark M4 is displayed in a lighter color than the marks M5 and M6 because the point P4 is separated from the cross section 64 by the distance Db in the moving direction of the sensor.
  • Marks M2 and M3 are displayed in the lightest color because points P2 and P3 are a distance Dc away from cross-section 64 in the direction of movement of the sensor, and distance Dc is longer than distance Db.
  • Mark M1 is displayed in the same color as mark M4 because point P1 is a distance Da from cross-section 64 in the direction of movement of the sensor, and distance Da is equal to distance Db.
  • the system for marking at least one point in the space corresponding to the tomographic data 51 allows the user to intuitively understand the relative position of the point in the moving direction of the sensor. Therefore, the usability of the system is improved.
  • the image processing device 11 generates and updates the three-dimensional data 52 representing the living tissue 60 by referring to the tomographic data 51, which is a data set obtained using a sensor.
  • the image processing device 11 causes the display 16 to display the three-dimensional data 52 as a three-dimensional image 53 together with the cross-sectional image 54 . That is, the image processing apparatus 11 refers to the tomographic data 51 and causes the display 16 to display the three-dimensional image 53 and the cross-sectional image 54 .
  • the image processing device 11 forms an opening 62 in the three-dimensional data 52 that exposes the lumen 61 of the biological tissue 60 in the three-dimensional image 53 .
  • openings 62 are formed so that all points P1, P2, P3, P4, P5, and P6 are visible.
  • the viewpoint for displaying the three-dimensional image 53 on the screen is adjusted according to the position of the opening 62 .
  • a viewpoint is the position of a virtual camera arranged in a three-dimensional space.
  • the lumen 61 of the living tissue 60 can be seen.
  • the biological tissue 60 includes, for example, blood vessels or organs such as the heart.
  • the biological tissue 60 is not limited to an anatomical single organ or a part thereof, but also includes a tissue that straddles a plurality of organs and has a lumen.
  • a specific example of such tissue is a portion of the vascular system extending from the upper portion of the inferior vena cava through the right atrium to the lower portion of the superior vena cava.
  • the biological tissue 60 is blood vessels.
  • the Z direction corresponds to the moving direction of the sensor, but as shown in FIG.
  • the X direction orthogonal to the Z direction and the Y direction orthogonal to the Z and X directions may be regarded as corresponding to the lateral direction of the lumen 61 of the living tissue 60 .
  • the image processing device 11 uses the three-dimensional data 52 to calculate the positions of the centers of gravity B1, B2, B3 and B4 of the cross sections C1, C2, C3 and C4 of the biological tissue 60, respectively.
  • the image processing apparatus 11 sets a pair of planes that intersect on a line Lb passing through the positions of the centers of gravity B1, B2, B3, and B4 as cutting planes D1 and D2.
  • the image processing device 11 forms an area sandwiched between the cut planes D1 and D2 in the three-dimensional image 53 and exposing the lumen 61 of the biological tissue 60 as the cut area 66 in the three-dimensional data 52 .
  • the opening 62 as shown in FIG. 2 is formed by setting the cutting area 66 to be invisible or transparent.
  • FIG. 3 four cross-sections C1, C2, C3, and C4 are shown as multiple cross-sections of the biological tissue 60 orthogonal to the Z direction for convenience, but the number of cross-sections for which the position of the center of gravity is to be calculated is limited to four. and preferably equal to the number of cross-sectional images acquired by IVUS.
  • the image processing system 10 includes an image processing device 11, a cable 12, a drive unit 13, a keyboard 14, a mouse 15, and a display 16.
  • the image processing apparatus 11 is a dedicated computer specialized for image diagnosis in this embodiment, but may be a general-purpose computer such as a PC. "PC” is an abbreviation for personal computer.
  • the cable 12 is used to connect the image processing device 11 and the drive unit 13.
  • the drive unit 13 is a device that is used by connecting to the probe 20 shown in FIG.
  • the drive unit 13 is also called MDU.
  • MDU is an abbreviation for motor drive unit.
  • Probe 20 has IVUS applications. Probe 20 is also referred to as an IVUS catheter or diagnostic imaging catheter.
  • the keyboard 14, mouse 15, and display 16 are connected to the image processing device 11 via any cable or wirelessly.
  • the display 16 is, for example, an LCD, organic EL display, or HMD.
  • LCD is an abbreviation for liquid crystal display.
  • EL is an abbreviation for electro luminescence.
  • HMD is an abbreviation for head-mounted display.
  • the image processing system 10 further comprises a connection terminal 17 and a cart unit 18 as options.
  • connection terminal 17 is used to connect the image processing device 11 and an external device.
  • the connection terminal 17 is, for example, a USB terminal.
  • USB is an abbreviation for Universal Serial Bus.
  • the external device is, for example, a recording medium such as a magnetic disk drive, a magneto-optical disk drive, or an optical disk drive.
  • the cart unit 18 is a cart with casters for movement.
  • An image processing device 11 , a cable 12 and a drive unit 13 are installed in the cart body of the cart unit 18 .
  • a keyboard 14 , a mouse 15 and a display 16 are installed on the top table of the cart unit 18 .
  • the probe 20 includes a drive shaft 21, a hub 22, a sheath 23, an outer tube 24, an ultrasonic transducer 25, and a relay connector 26.
  • the drive shaft 21 passes through a sheath 23 inserted into the body cavity of a living body, an outer tube 24 connected to the proximal end of the sheath 23, and extends to the inside of a hub 22 provided at the proximal end of the probe 20.
  • the driving shaft 21 has an ultrasonic transducer 25 for transmitting and receiving signals at its tip and is rotatably provided within the sheath 23 and the outer tube 24 .
  • a relay connector 26 connects the sheath 23 and the outer tube 24 .
  • the hub 22, the drive shaft 21, and the ultrasonic transducer 25 are connected to each other so as to integrally move back and forth in the axial direction. Therefore, for example, when the hub 22 is pushed toward the distal side, the drive shaft 21 and the ultrasonic transducer 25 move inside the sheath 23 toward the distal side. For example, when the hub 22 is pulled proximally, the drive shaft 21 and the ultrasonic transducer 25 move proximally inside the sheath 23 as indicated by the arrows.
  • the drive unit 13 includes a scanner unit 31, a slide unit 32, and a bottom cover 33.
  • the scanner unit 31 is connected to the image processing device 11 via the cable 12 .
  • the scanner unit 31 includes a probe connection section 34 that connects to the probe 20 and a scanner motor 35 that is a drive source that rotates the drive shaft 21 .
  • the probe connecting portion 34 is detachably connected to the probe 20 through an insertion port 36 of the hub 22 provided at the proximal end of the probe 20 .
  • the proximal end of the drive shaft 21 is rotatably supported, and the rotational force of the scanner motor 35 is transmitted to the drive shaft 21 .
  • Signals are also transmitted and received between the drive shaft 21 and the image processing device 11 via the cable 12 .
  • the image processing device 11 generates a tomographic image of the body lumen and performs image processing based on the signal transmitted from the drive shaft 21 .
  • the slide unit 32 mounts the scanner unit 31 so as to move back and forth, and is mechanically and electrically connected to the scanner unit 31 .
  • the slide unit 32 includes a probe clamp section 37 , a slide motor 38 and a switch group 39 .
  • the probe clamping part 37 is arranged coaxially with the probe connecting part 34 on the tip side of the probe connecting part 34 and supports the probe 20 connected to the probe connecting part 34 .
  • the slide motor 38 is a driving source that generates axial driving force.
  • the scanner unit 31 advances and retreats by driving the slide motor 38, and the drive shaft 21 advances and retreats in the axial direction accordingly.
  • the slide motor 38 is, for example, a servomotor.
  • the switch group 39 includes, for example, a forward switch and a pullback switch that are pressed when moving the scanner unit 31 back and forth, and a scan switch that is pressed when image rendering is started and ended.
  • Various switches are included in the switch group 39 as needed, without being limited to the example here.
  • the scanner motor 35 When the scan switch is pressed, image rendering is started, the scanner motor 35 is driven, and the slide motor 38 is driven to move the scanner unit 31 backward.
  • a user such as an operator connects the probe 20 to the scanner unit 31 in advance, and causes the drive shaft 21 to rotate and move to the proximal end side in the axial direction when image rendering is started.
  • the scanner motor 35 and the slide motor 38 are stopped when the scan switch is pressed again, and image rendering is completed.
  • the bottom cover 33 covers the bottom surface of the slide unit 32 and the entire circumference of the side surface on the bottom surface side, and can move toward and away from the bottom surface of the slide unit 32 .
  • the image processing device 11 includes a control section 41 , a storage section 42 , a communication section 43 , an input section 44 and an output section 45 .
  • the control unit 41 includes at least one processor, at least one programmable circuit, at least one dedicated circuit, or any combination thereof.
  • a processor may be a general-purpose processor such as a CPU or GPU, or a dedicated processor specialized for a particular process.
  • CPU is an abbreviation for central processing unit.
  • GPU is an abbreviation for graphics processing unit.
  • a programmable circuit is, for example, an FPGA.
  • FPGA is an abbreviation for field-programmable gate array.
  • a dedicated circuit is, for example, an ASIC.
  • ASIC is an abbreviation for application specific integrated circuit.
  • the control unit 41 executes processing related to the operation of the image processing device 11 while controlling each unit of the image processing system 10 including the image processing device 11 .
  • the storage unit 42 includes at least one semiconductor memory, at least one magnetic memory, at least one optical memory, or any combination thereof.
  • a semiconductor memory is, for example, a RAM or a ROM.
  • RAM is an abbreviation for random access memory.
  • ROM is an abbreviation for read only memory.
  • RAM is, for example, SRAM or DRAM.
  • SRAM is an abbreviation for static random access memory.
  • DRAM is an abbreviation for dynamic random access memory.
  • ROM is, for example, EEPROM.
  • EEPROM is an abbreviation for electrically erasable programmable read only memory.
  • the storage unit 42 functions as, for example, a main memory device, an auxiliary memory device, or a cache memory.
  • the storage unit 42 stores data used for the operation of the image processing apparatus 11, such as the tomographic data 51, and data obtained by the operation of the image processing apparatus 11, such as the three-dimensional data 52 and the three-dimensional image 53. .
  • the communication unit 43 includes at least one communication interface.
  • the communication interface is, for example, a wired LAN interface, a wireless LAN interface, or an image diagnosis interface that receives and A/D converts IVUS signals.
  • LAN is an abbreviation for local area network.
  • A/D is an abbreviation for analog to digital.
  • the communication unit 43 receives data used for the operation of the image processing device 11 and transmits data obtained by the operation of the image processing device 11 .
  • the drive unit 13 is connected to an image diagnosis interface included in the communication section 43 .
  • the input unit 44 includes at least one input interface.
  • the input interface is, for example, a USB interface, an HDMI (registered trademark) interface, or an interface compatible with a short-range wireless communication standard such as Bluetooth (registered trademark).
  • HDMI registered trademark
  • HDMI registered trademark
  • HDMI registered trademark
  • HDMI registered trademark
  • HDMI registered trademark
  • HDMI registered trademark
  • HDMI registered trademark
  • the output unit 45 includes at least one output interface.
  • the output interface is, for example, a USB interface, an HDMI (registered trademark) interface, or an interface compatible with a short-range wireless communication standard such as Bluetooth (registered trademark).
  • the output unit 45 outputs data obtained by the operation of the image processing device 11 .
  • the display 16 is connected to a USB interface or HDMI (registered trademark) interface included in the output unit 45 .
  • the functions of the image processing device 11 are realized by executing the image processing program according to the present embodiment with a processor as the control unit 41 . That is, the functions of the image processing device 11 are realized by software.
  • the image processing program causes the computer to function as the image processing device 11 by causing the computer to execute the operation of the image processing device 11 . That is, the computer functions as the image processing device 11 by executing the operation of the image processing device 11 according to the image processing program.
  • the program can be stored on a non-transitory computer-readable medium.
  • a non-transitory computer-readable medium is, for example, a flash memory, a magnetic recording device, an optical disk, a magneto-optical recording medium, or a ROM.
  • Program distribution is performed, for example, by selling, assigning, or lending a portable medium such as an SD card, DVD, or CD-ROM storing the program.
  • SD is an abbreviation for Secure Digital.
  • DVD is an abbreviation for digital versatile disc.
  • CD-ROM is an abbreviation for compact disc read only memory.
  • the program may be distributed by storing the program in the storage of the server and transferring the program from the server to another computer.
  • a program may be provided as a program product.
  • a computer for example, temporarily stores a program stored in a portable medium or a program transferred from a server in a main storage device. Then, the computer reads the program stored in the main storage device with the processor, and executes processing according to the read program with the processor.
  • the computer may read the program directly from the portable medium and execute processing according to the program.
  • the computer may execute processing according to the received program every time the program is transferred from the server to the computer.
  • the processing may be executed by a so-called ASP type service that realizes the function only by executing the execution instruction and obtaining the result without transferring the program from the server to the computer.
  • "ASP" is an abbreviation for application service provider.
  • the program includes information to be used for processing by a computer and conforming to the program. For example, data that is not a direct instruction to a computer but that has the property of prescribing the processing of the computer corresponds to "things equivalent to a program.”
  • a part or all of the functions of the image processing device 11 may be realized by a programmable circuit or a dedicated circuit as the control unit 41. That is, part or all of the functions of the image processing device 11 may be realized by hardware.
  • the operation of the image processing system 10 according to this embodiment will be described with reference to FIG.
  • the operation of the image processing system 10 corresponds to the image display method according to this embodiment.
  • the probe 20 is primed by the user before the flow of FIG. 6 starts. After that, the probe 20 is fitted into the probe connection portion 34 and the probe clamp portion 37 of the drive unit 13 and connected and fixed to the drive unit 13 . Then, the probe 20 is inserted to a target site in a living tissue 60 such as a blood vessel or heart.
  • a living tissue 60 such as a blood vessel or heart.
  • step S101 the scan switch included in the switch group 39 is pressed, and the pullback switch included in the switch group 39 is pressed, so that a so-called pullback operation is performed.
  • the probe 20 transmits ultrasonic waves by means of the ultrasonic transducer 25 retracted in the axial direction by a pullback operation inside the biological tissue 60 .
  • the ultrasonic transducer 25 radially transmits ultrasonic waves while moving inside the living tissue 60 .
  • the ultrasonic transducer 25 receives reflected waves of the transmitted ultrasonic waves.
  • the probe 20 inputs the signal of the reflected wave received by the ultrasonic transducer 25 to the image processing device 11 .
  • the control unit 41 of the image processing apparatus 11 processes the input signal to sequentially generate cross-sectional images of the biological tissue 60, thereby acquiring tomographic data 51 including a plurality of cross-sectional images.
  • the probe 20 rotates the ultrasonic transducer 25 in the circumferential direction inside the living tissue 60 and moves it in the axial direction, and rotates the ultrasonic transducer 25 toward the outside from the center of rotation.
  • the probe 20 receives reflected waves from reflecting objects present in each of a plurality of directions inside the living tissue 60 by the ultrasonic transducer 25 .
  • the probe 20 transmits the received reflected wave signal to the image processing device 11 via the drive unit 13 and the cable 12 .
  • the communication unit 43 of the image processing device 11 receives the signal transmitted from the probe 20 .
  • the communication unit 43 A/D converts the received signal.
  • the communication unit 43 inputs the A/D converted signal to the control unit 41 .
  • the control unit 41 processes the input signal and calculates the intensity value distribution of the reflected waves from the reflectors present in the transmission direction of the ultrasonic waves from the ultrasonic transducer 25 .
  • the control unit 41 sequentially generates two-dimensional images having a luminance value distribution corresponding to the calculated intensity value distribution as cross-sectional images of the biological tissue 60, thereby acquiring tomographic data 51, which is a data set of cross-sectional images.
  • the control unit 41 causes the storage unit 42 to store the obtained tomographic data 51 .
  • the signal of the reflected wave received by the ultrasonic transducer 25 corresponds to the raw data of the tomographic data 51
  • the cross-sectional image generated by processing the signal of the reflected wave by the image processing device 11 is the tomographic data. 51 processing data.
  • the control unit 41 of the image processing device 11 may store the signal input from the probe 20 as the tomographic data 51 in the storage unit 42 as it is.
  • the control unit 41 may store, as the tomographic data 51 , data indicating the intensity value distribution of the reflected wave calculated by processing the signal input from the probe 20 in the storage unit 42 .
  • the tomographic data 51 is not limited to a data set of cross-sectional images of the living tissue 60, and may be data representing cross-sections of the living tissue 60 at each movement position of the ultrasonic transducer 25 in some format.
  • an ultrasonic transducer that transmits ultrasonic waves in multiple directions without rotating is used instead of the ultrasonic transducer 25 that transmits ultrasonic waves in multiple directions while rotating in the circumferential direction.
  • the tomographic data 51 may be acquired using OFDI or OCT instead of being acquired using IVUS.
  • OFDI is an abbreviation for optical frequency domain imaging.
  • OCT is an abbreviation for optical coherence tomography.
  • another device instead of the image processing device 11 generating a dataset of cross-sectional images of the biological tissue 60, another device generates a similar dataset, and the image processing device 11 generates the dataset. It may be obtained from the other device. That is, instead of the control unit 41 of the image processing device 11 processing the IVUS signal to generate a cross-sectional image of the biological tissue 60, another device processes the IVUS signal to generate a cross-sectional image of the biological tissue 60. You may generate
  • step S102 the control unit 41 of the image processing apparatus 11 generates three-dimensional data 52 of the biological tissue 60 based on the tomographic data 51 acquired in step S101. That is, the control unit 41 generates the three-dimensional data 52 based on the tomographic data 51 acquired by the sensor.
  • the generated three-dimensional data 52 already exists, it is possible to update only the data at the location corresponding to the updated tomographic data 51 instead of regenerating all the three-dimensional data 52 from scratch. preferable. In that case, the amount of data processing when generating the three-dimensional data 52 can be reduced, and the real-time performance of the three-dimensional image 53 in the subsequent step S103 can be improved.
  • control unit 41 of the image processing device 11 stacks the cross-sectional images of the living tissue 60 included in the tomographic data 51 stored in the storage unit 42 to three-dimensionalize the living tissue 60 .
  • Dimensional data 52 is generated.
  • any one of rendering methods such as surface rendering or volume rendering, and associated processing such as texture mapping including environment mapping, bump mapping, and the like is used.
  • the control unit 41 causes the storage unit 42 to store the generated three-dimensional data 52 .
  • the tomographic data 51 includes data of the catheter 63 in the same manner as the data of the living tissue 60. Therefore, in step S ⁇ b>102 , the three-dimensional data 52 generated by the control unit 41 also includes data on the catheter 63 as well as data on the living tissue 60 .
  • the control unit 41 of the image processing apparatus 11 classifies the pixel groups of the cross-sectional image included in the tomographic data 51 acquired in step S101 into two or more classes. These two or more classes include at least a "tissue” class to which the biological tissue 60 belongs, and a “catheter” class to which the catheter 63 belongs.
  • a class of "medical devices”, a class of "indwelling objects” such as indwelling stents, or a class of "lesions” such as lime or plaque may also be included. Any method may be used as the classification method, but in this embodiment, a method of classifying pixel groups of cross-sectional images using a trained model is used.
  • the learned model is trained by performing machine learning in advance so that it can detect regions corresponding to each class from a sample IVUS cross-sectional image.
  • step S103 the control unit 41 of the image processing device 11 causes the display 16 to display the three-dimensional data 52 generated in step S102 as a three-dimensional image 53.
  • the control unit 41 may set the angle at which the three-dimensional image 53 is displayed to any angle.
  • the control unit 41 causes the display 16 to display the latest cross-sectional image 54 included in the tomographic data 51 acquired in step S101 together with the three-dimensional image 53 .
  • control unit 41 of the image processing device 11 generates a 3D image 53 from the 3D data 52 stored in the storage unit 42 .
  • the control unit 41 displays the latest cross-sectional image 54 among the cross-sectional images of the biological tissue 60 included in the tomographic data 51 stored in the storage unit 42 and the generated three-dimensional image 53 via the output unit 45. 16.
  • steps S301 and S302 are executed. If there is no specified location, the processing of steps S301 and S302 is skipped.
  • step S301 the control unit 41 of the image processing device 11 calculates the distance from the point Pd to the cross section 64 of the biological tissue 60 represented by the cross section image 54 in the moving direction of the sensor.
  • step S302 the control unit 41 of the image processing apparatus 11 performs control to display different marks 55 depending on the distance calculated in step S301 at the position corresponding to the point Pd in the cross-sectional image 54.
  • the control unit 41 changes the color of the mark 55 according to the calculated distance. Any combination may be changed. For example, if the point Pd is closer to the cross section 64, the mark 55 may be made larger, and if it is farther away, the mark 55 may be made smaller. Alternatively, if the point Pd exists on the cross section 64, the mark 55 may be rectangular, and if it exists on another cross section, the mark 55 may have a shape other than a rectangle, such as a circle.
  • the mark 55 may be surrounded by a white frame or blinked. According to these examples, on one screen, it is possible to clarify how far past cauterization positions are and which angular direction has already been cauterized.
  • the control unit 41 of the image processing device 11 determines the distance Da for point P1, the distance Dc for points P2 and P3, and the distance Dc for point P4.
  • a distance Db is calculated for the point P5
  • a distance 0 is calculated for the point P5.
  • the control unit 41 places the darkest mark M5, the point P1, Control is performed to display marks M1 and M4 lighter than the mark M5 at the position corresponding to P4, and to display the lightest-colored marks M2 and M3 at positions corresponding to the points P2 and P3 in the cross-sectional image .
  • control unit 41 of the image processing device 11 performs control to display the distance between the point Pd and the cross section 64 in the movement direction of the sensor when performing control to display the mark 55. You can go further.
  • the unit of displayed distance is, for example, millimeters.
  • the control unit 41 may perform control to display the distance Da next to the mark M1, the distance Dc next to the marks M2 and M3, and the distance Db next to the mark M4.
  • control unit 41 of the image processing device 11 may hide the mark 55 when the distance between the point Pd and the cross section 64 in the moving direction of the sensor exceeds a threshold. .
  • the controller 41 may hide the marks M2 and M3.
  • the control unit 41 of the image processing device 11 may change the mark 55 depending on whether the point Pd exists before or after the cross section 64 in the moving direction of the sensor.
  • the point P1 lies in front of the cross-section 64 in the sensor movement direction, ie above the cross-section 64 .
  • Points P2, P3, P4 are behind, ie below, cross-section 64 in the direction of movement of the sensor. Therefore, the control unit 41 may set the color, brightness, transparency, pattern, size, shape, orientation, or any combination thereof of the mark M1 to be different from those of the marks M2, M3, and M4. good.
  • the mark M1 may be an upwardly convex triangle, and the marks M2, M3, and M4 may be downwardly convex triangles.
  • the colors may be set so as to ensure the difference according to the distance. For example, if the color of the mark M1 is set to red and the colors of the marks M2, M3, and M4 are set to be blue, the depth of the red of the mark M1 is set to the same level as the depth of blue of the mark M4, and the depth of the blue of the marks M2 and M3 is set to the same level. may be set lighter than the blue color of the mark M4. According to these examples, in one screen, it is possible to clarify how far past cauterization positions are in the vertical direction.
  • the control unit 41 of the image processing device 11 may further perform control to display the distance between the catheter 63 and the point Pd.
  • the unit of displayed distance is, for example, millimeters.
  • the displayed distance may be the distance on the plane, but it is the distance in the three-dimensional space, ie the actual distance.
  • the control unit 41 may perform control to display the distance from the catheter 63 to the point P5 next to the point P5 at the shortest distance from the catheter 63.
  • the control unit 41 may further perform control to display a mark different from the mark 55 at a position corresponding to the tip of the catheter 63 in the cross-sectional image 54 .
  • step S ⁇ b>303 the control unit 41 of the image processing device 11 determines whether the catheter 63 is in contact with the inner wall surface 65 of the living tissue 60 . Specifically, the control unit 41 analyzes the cross-sectional image 54 to detect the biological tissue 60 and the catheter 63 within the cross-sectional image 54 . Then, the control unit 41 measures the distance between the living tissue 60 and the tip of the catheter 63 to determine whether the living tissue 60 and the tip of the catheter 63 are in contact with each other. Alternatively, the control unit 41 analyzes the three-dimensional data 52 and detects the tip of the catheter 63 included in the three-dimensional data 52 .
  • the control unit 41 measures the distance between the living tissue 60 and the tip of the catheter 63 to determine whether the living tissue 60 and the tip of the catheter 63 are in contact with each other.
  • the control unit 41 receives the communication unit 43 or the input unit 44 from an external system that determines whether the tip of the catheter 63 is in contact with the inner wall surface 65 of the living tissue 60 using an electrode provided at the tip of the catheter 63.
  • Position data indicating the contact position of the tip of the catheter 63 may be input via the contact point.
  • the control unit 41 may refer to the input position data and correct the analysis result of the cross-sectional image 54 or the three-dimensional data 52 .
  • step S303 may be performed using AI.
  • AI is an abbreviation for artificial intelligence.
  • a human may determine whether or not the catheter 63 is in contact with the inner wall surface 65 of the living tissue 60 instead of executing the process of step S303.
  • steps S304 and S305 are executed. If it is determined that the catheter 63 is not in contact with the inner wall surface 65 of the living tissue 60, the processing of steps S304 and S305 is skipped.
  • step S304 the control unit 41 of the image processing device 11 acquires designation data that designates the portion of the inner wall surface 65 of the living tissue 60 with which the catheter 63 is in contact as the point Pd. If at least one point in the space corresponding to the tomographic data 51 has already been designated as the point Pd before this point, one point designated as the point Pd is added.
  • the control unit 41 acquires data designating the point Pd as designation data by accepting a user operation designating at least one location on the cross-sectional image 54 as the point Pd. Data specifying the point Pd may be acquired as the specifying data by automatically detecting the position where the tip of the .
  • step S305 the control unit 41 of the image processing apparatus 11 performs control to display a new mark at the position corresponding to the location specified by the specified data acquired in step S304 in the cross-sectional image 54.
  • the control unit 41 of the image processing device 11 acquires data designating the point P6 as designation data.
  • the control unit 41 performs control to display a mark M6 having the same color as the mark M5 at a position corresponding to the point P6 in the cross-sectional image 54.
  • the control unit 41 of the image processing apparatus 11 displays a new image representing the cross section 64 corresponding to the position of the sensor as the cross section image 54 on the display 16 each time a new data set is obtained using the sensor. to display. Therefore, when the sensor is moved by the pullback operation, the distance from the point Pd to the cross section 64 in the moving direction of the sensor changes, and the mark 55 changes along with the change of this distance. By confirming the change of the mark 55, the user can get a feeling that the sensor is approaching the point Pd or a feeling that the sensor is moving away from the point Pd by the pullback operation.
  • a portion of the inner wall surface 65 of the living tissue 60 other than the portion cauterized by the catheter 63 may be marked. That is, point Pd is not limited to an ablation point.
  • the base of the branch 72 of the blood vessel may be specified as the point Pd, as shown in FIG.
  • the base of an aneurysm 74 formed in a blood vessel may be designated as point Pd.
  • the location where the nerve 75 intersects the blood vessel may be specified as the point Pd.
  • one location of a tumor 76 formed around a blood vessel may be designated as point Pd.
  • FIG. 8 the upper side shows an image of each cross section of the blood vessel actually displayed on the display 16 as the cross section image 54, and the lower side is a schematic diagram of the longitudinal section of the blood vessel. In this schematic diagram, each dotted line indicates the position of each cross section as the cross section 64 .
  • FIG. 9 is similar to FIG. 8 as well.
  • FIG. 10 is a schematic diagram of a longitudinal section of a blood vessel.
  • FIG. 11 is similar to FIG. 10 as well.
  • the size of the mark 55 changes depending on the distance from the point Pd to the cross section 64 in the moving direction of the sensor.
  • the user checks the change in the size of the mark 55 while performing the pullback operation. can be easily identified.
  • the user if the user wishes to place the stent graft 73 over a certain distance so as to cover the aneurysm 74, the user can check the change in the size of the mark 55 while performing the pullback operation. , the position where the stent graft 73 should be placed can be easily specified.
  • the user can check the change in the size of the mark 55 while performing the pull-back operation. can be easily identified. According to this example, the distance from the bifurcation and the direction of placement of the stent graft 73 can also be easily ascertained.
  • the user if the user wishes to perform ablation while avoiding the nerve 75 that intersects the blood vessel, or wishes to perform ablation around the nerve 75, the user can change the size of the mark 55 while performing the pullback operation. By confirming , the position to be ablated can be easily identified.
  • Nerve 75 may be another blood vessel that intersects the blood vessel.
  • the user if the user wishes to inject medicine at a certain distance from the tumor 76 around the blood vessel, the user confirms the change in the size of the mark 55 while performing the pull-back operation, thereby injecting the medicine. You can easily identify the position to hit.
  • the distance from point Pd to cross-section 64 in the direction of movement of the sensor may be displayed numerically.
  • the display method such as the color of the mark 55 may be changed, or the mark 55 may be hidden. good.
  • step S104 if there is an operation to set the angle for displaying the three-dimensional image 53 as the user's change operation, the process of step S105 is executed. If there is no change operation by the user, the process of step S106 is executed.
  • step S ⁇ b>105 the control unit 41 of the image processing device 11 receives an operation via the input unit 44 to set the angle for displaying the three-dimensional image 53 .
  • the control unit 41 adjusts the angle at which the three-dimensional image 53 is displayed to the set angle.
  • step S103 the control unit 41 causes the display 16 to display the three-dimensional image 53 at the angle set in step S105.
  • control unit 41 of the image processing device 11 allows the user to manipulate the three-dimensional image 53 displayed on the display 16 using the keyboard 14, the mouse 15, or the touch screen provided integrally with the display 16.
  • An operation to rotate is received via the input unit 44 .
  • the control unit 41 interactively adjusts the angle at which the three-dimensional image 53 is displayed on the display 16 according to the user's operation.
  • the control unit 41 causes the input unit 44 to input the numerical value of the angle for displaying the three-dimensional image 53 by the user using the keyboard 14, the mouse 15, or the touch screen provided integrally with the display 16. accepted through The control unit 41 adjusts the angle at which the three-dimensional image 53 is displayed on the display 16 according to the input numerical value.
  • step S106 if the tomographic data 51 is updated, the processes of steps S107 and S108 are executed. If the tomographic data 51 has not been updated, in step S104, it is confirmed again whether or not the user has performed a change operation.
  • step S107 the control unit 41 of the image processing device 11 processes the signal input from the probe 20 to newly generate the cross-sectional image 54 of the living tissue 60, similarly to the processing of step S101.
  • Tomographic data 51 including two new cross-sectional images 54 are acquired.
  • the control unit 41 of the image processing apparatus 11 updates the three-dimensional data 52 of the living tissue 60 based on the tomographic data 51 acquired at step S107. That is, the control unit 41 updates the three-dimensional data 52 based on the tomographic data 51 acquired by the sensor. Then, in step S103, the control unit 41 causes the display 16 to display the three-dimensional data 52 updated in step S108 as the three-dimensional image 53.
  • FIG. The control unit 41 causes the display 16 to display the latest cross-sectional image 54 included in the tomographic data 51 acquired in step S ⁇ b>107 together with the three-dimensional image 53 .
  • the control unit 41 of the image processing apparatus 11 refers to the tomographic data 51, which is a data set obtained using a sensor that moves through the lumen 61 of the biological tissue 60, and
  • the display 16 displays a cross-sectional image 54 representing a cross-section 64 of the living tissue 60 perpendicular to the direction of movement of the body.
  • the control unit 41 acquires designation data that designates at least one location in the space corresponding to the tomographic data 51 as the point Pd.
  • the control unit 41 displays different marks 55 depending on the distance between the point Pd and the cross-section 64 in the moving direction of the sensor at the position corresponding to the point Pd in the cross-sectional image 54 . control. Therefore, according to this embodiment, the usefulness of the system for marking points Pd associated with the living tissue 60 is improved.
  • the ablation procedure can be guided and the cauterization point can be marked.
  • the ablation point By confirming the ablation point with the cross-sectional image 54, it is possible to know detailed and accurate information as compared with the case of confirming with the three-dimensional image 53. Circumferential isolation may be oblique to the axis of the IVUS catheter rather than coplanar, but in this embodiment all ablation points can still be seen. Moreover, it is possible to ascertain whether each ablation point is in the cross-section 64 represented by the cross-sectional image 54, and if not, how far apart it is.
  • the tomographic data 51 classifies each pixel on an ultrasonic image into classes such as "tissue”, “blood cell” or “lumen”, and “catheter” other than IVUS catheters.
  • Each class contains volume data in which pixel groups are stacked in the moving direction of the sensor as a data set. This volume data corresponds to voxel information.
  • data indicating the position of point Pd is also included in the data set as volume data of a class "marked point” separate from classes such as “tissue”, “blood cell” or “lumen”, and “catheter”. , and marks 55 are displayed based on the volume data.
  • the vector that is, the data indicating the direction
  • the vector is used as the "mark location" instead of the data itself indicating the position of the point Pd. May be incorporated into a set.
  • a method of specifying the point Pd a method of specifying the position of the point Pd on the two-dimensional image by a user such as an operator is used. For example, a method in which the user clicks a point Pd on the two-dimensional image with the mouse 15 is used. As a modified example of this embodiment, a method in which the user designates the position of the point Pd on the three-dimensional image 53 may be used. For example, a method in which the user clicks the point Pd on the three-dimensional image 53 with the mouse 15 may be used. Alternatively, a method of automatically designating the region in contact with the ablation catheter as point Pd based on information that ablation has been performed may be used.
  • Information that ablation has been performed may be manually input to the image processing device 11 or may be input to the image processing device 11 from a device that controls the ablation catheter.
  • a certain range centering on the designated point is marked as one point. If one range centered on a point is specified, the specified range is marked as one point.
  • a fixed size range may be designated as an ablation point with a circular or spherical pointer. As the distance between the point Pd and the cross section 64 in the moving direction of the sensor, the distance from the center of the specified range to the cross section 64 may be calculated.
  • step S111 if there is an operation to set the cutting area 66 as the user's setting operation, the process of step S112 is executed.
  • step S ⁇ b>112 the control unit 41 of the image processing device 11 receives an operation for setting the cutting area 66 via the input unit 44 .
  • step S113 the control unit 41 of the image processing apparatus 11 uses the latest three-dimensional data 52 stored in the storage unit 42 to calculate the center-of-gravity positions of a plurality of lateral cross-sections of the lumen 61 of the biological tissue 60.
  • the latest three-dimensional data 52 is the three-dimensional data 52 generated in step S102 if the process of step S108 has not been executed, and updated in step S108 if the process of step S108 has been executed. It means the three-dimensional data 52 that has been processed.
  • the generated three-dimensional data 52 already exists, it is preferable to update only the data at the location corresponding to the updated tomographic data 51 instead of regenerating all the three-dimensional data 52 from scratch. . In that case, the amount of data processing when generating the three-dimensional data 52 can be reduced, and the real-time performance of the three-dimensional image 53 in the subsequent step S117 can be improved.
  • the control unit 41 of the image processing apparatus 11 generates a new cross-sectional image 54 corresponding to each of the plurality of cross-sectional images generated in step S101 in step S107.
  • the cross-sectional image 54 is replaced with the new cross-sectional image 54 and then binarized.
  • the control unit 41 extracts a point group of the inner wall surface 65 of the biological tissue 60 from the binarized cross-sectional image.
  • the control unit 41 extracts points corresponding to the inner wall surface of the main blood vessel one by one along the vertical direction of the cross-sectional image with the r axis as the horizontal axis and the ⁇ axis as the vertical axis. Extract the point cloud of .
  • point Cn is the center of the cross-sectional image.
  • Point Bp is the center of gravity of the point group of the inner wall surface.
  • Point Bv is the centroid of the vertices of the polygon.
  • Point Bx is the centroid of the polygon as a convex hull.
  • a method for calculating the barycentric position of a blood vessel a method different from the method for calculating the barycentric position of a polygon as a convex hull may be used.
  • a method of calculating the center position of the largest circle that fits in the main blood vessel as the center-of-gravity position may be used.
  • a binarized cross-sectional image with the r axis as the horizontal axis and the .theta Techniques similar to these can also be used when the biological tissue 60 is not a blood vessel.
  • step S114 the control unit 41 of the image processing device 11 performs smoothing on the calculation result of the center-of-gravity position in step S113.
  • the control unit 41 of the image processing apparatus 11 smoothes the calculation result of the center-of-gravity position by using a moving average, as indicated by the dashed line in FIG. 17 .
  • a method other than the moving average may be used as a smoothing method.
  • exponential smoothing, kernel method, local regression, Ramer-Douglas-Peucker algorithm, Savitzky-Golay method, smoothing spline, or SGM may be used.
  • a technique of performing a fast Fourier transform and then removing high frequency components may be used.
  • a Kalman filter or a low pass filter such as a Butterworth filter, a Chebyshev filter, a digital filter, an elliptic filter, or a KZ filter may be used.
  • SGM is an abbreviation for stretched grid method.
  • KZ is an abbreviation for Kolmogorov-Zurbenko.
  • the control unit 41 may divide the calculation result of the center-of-gravity position according to the positions in the Z direction of a plurality of cross sections of the biological tissue 60 orthogonal to the Z direction, and perform smoothing for each divided calculation result. . That is, when the curve of the position of the center of gravity shown by the dashed line in FIG. 17 overlaps the tissue region, the control unit 41 may divide the curve of the position of the center of gravity into a plurality of sections and perform individual smoothing for each section. good.
  • control unit 41 may adjust the degree of smoothing performed on the calculation result of the center-of-gravity position according to the positions in the Z-direction of a plurality of cross-sections of the living tissue 60 orthogonal to the Z-direction. That is, when the center-of-gravity position curve shown by the dashed line in FIG. 17 overlaps the tissue region, the control unit 41 may reduce the degree of smoothing to be performed for a portion of the section including the overlapped point. .
  • step S115 the control unit 41 of the image processing apparatus 11 sets two planes that intersect with one line Lb passing through the position of the center of gravity calculated in step S113 as cutting planes D1 and D2. .
  • the control unit 41 sets the cut planes D1 and D2 after performing smoothing on the calculation result of the center-of-gravity position in step S114, but the process of step S114 may be omitted.
  • control unit 41 of the image processing device 11 sets the curve of the center-of-gravity position obtained as a result of the smoothing in step S114 as the line Lb.
  • the control unit 41 sets a pair of planes that intersect at the set line Lb as the cut planes D1 and D2.
  • the control unit 41 calculates the three-dimensional coordinates intersecting the cut planes D1 and D2 of the living tissue 60 in the latest three-dimensional data 52 stored in the storage unit 42, and the lumen 61 of the living tissue 60 in the three-dimensional image 53. It is specified as the three-dimensional coordinates of the edge of the opening 62 to be exposed.
  • the control unit 41 causes the storage unit 42 to store the specified three-dimensional coordinates.
  • step S116 the control unit 41 of the image processing apparatus 11 forms, in the three-dimensional data 52, an area sandwiched between the cut planes D1 and D2 in the three-dimensional image 53 and exposing the lumen 61 of the biological tissue 60 as the cut area 66. do.
  • control unit 41 of the image processing device 11 converts the portion specified by the three-dimensional coordinates stored in the storage unit 42 in the latest three-dimensional data 52 stored in the storage unit 42 into a three-dimensional image. 53 is set to be hidden or transparent when displayed on the display 16. - ⁇ That is, the control unit 41 forms the cutting area 66 set in step S112.
  • step S117 the control unit 41 of the image processing apparatus 11 causes the display 16 to display the three-dimensional data 52, which formed the cutting area 66 in step S116, as a three-dimensional image 53.
  • the control unit 41 causes the display 16 to display the cross-sectional image 54 displayed on the display 16 in step S ⁇ b>103 , that is, the two-dimensional image together with the three-dimensional image 53 .
  • control unit 41 of the image processing device 11 generates a three-dimensional image such as that shown in FIG. 53 is generated.
  • the control unit 41 displays the latest cross-sectional image 54 among the cross-sectional images of the biological tissue 60 included in the tomographic data 51 stored in the storage unit 42 and the generated three-dimensional image 53 on the display 16 via the output unit 45. to display.
  • step S117 the processing shown in FIG. 7 is further executed, similar to step S103.
  • step S118 if there is an operation to set the cutting area 66 as the user's change operation, the process of step S119 is executed. If there is no change operation by the user, the process of step S120 is executed.
  • step S119 the control unit 41 of the image processing apparatus 11 receives an operation for setting the cutting area 66 via the input unit 44, as in the processing of step S112. Then, the processes after step S115 are executed.
  • step S120 if the tomographic data 51 is updated, the processes of steps S121 and S122 are executed. If the tomographic data 51 has not been updated, in step S118, it is confirmed again whether or not the user has performed a change operation.
  • step S121 the control unit 41 of the image processing apparatus 11 processes the signal input from the probe 20 to newly generate the cross-sectional image 54 of the biological tissue 60, similarly to the processing in step S101 or step S107. , acquire tomographic data 51 including at least one new cross-sectional image 54 .
  • step S122 the control unit 41 of the image processing apparatus 11 updates the three-dimensional data 52 of the living tissue 60 based on the tomographic data 51 acquired at step S121. After that, the processes after step S113 are executed. In step S122, it is preferable to update only the data corresponding to the updated tomographic data 51. FIG. In that case, the amount of data processing when generating the three-dimensional data 52 can be reduced, and real-time performance of data processing after step S113 can be improved.
  • marking may be performed using a three-dimensional image 53 as a modified example of this embodiment.
  • marking may be performed using a three-dimensional image 53 as a modified example of this embodiment.
  • marking is performed using a two-dimensional image, even if the point Pd is marked as shown in FIG. 18, if the axis of the probe 20 is shifted as shown in FIG. Gone.
  • the position of the center Pc of the cross-sectional image 54 coincides with the position of the center of gravity Pb of the cross-sectional image 54, but in FIG. greatly deviated from its position. Therefore, although the point Pd exists on the inner wall surface 65 in FIG. 18, the point Pd is largely deviated from the inner wall surface 65 in FIG.
  • step S311 is the same as the processing of step S303 in FIG. 7, so the description is omitted.
  • step S312 When it is determined that the catheter 63 is in contact with the inner wall surface 65 of the living tissue 60, the processing from step S312 is executed. If it is determined that the catheter 63 is not in contact with the inner wall surface 65 of the living tissue 60, the flow of FIG. 21 ends.
  • step S312 the control unit 41 of the image processing apparatus 11 acquires designation data that designates, as a point Pd, a portion of the inner wall surface 65 of the living tissue 60 that is in contact with the catheter 63, as in step S304 of FIG. do.
  • the control unit 41 acquires data designating the point Pd as designation data by accepting a user operation designating at least one point Pd on the cross-sectional image 54.
  • the catheter 63 Data specifying the point Pd may be acquired as the specifying data by automatically detecting the position where the tip of the .
  • control unit 41 of the image processing apparatus 11 refers to the tomographic data 51 and specifies the direction of the point Pd specified by the specified data acquired in step S304 from the center of gravity Pb in the cross section 64 as the specified direction. do.
  • step S314 the control unit 41 of the image processing device 11 identifies the position corresponding to the point Pd on the cross section 64 as the corresponding position according to the designated direction identified in step S313 and the position of the center of gravity Pb. Specifically, the control unit 41 of the image processing apparatus 11 refers to the tomographic data 51 to detect the inner wall surface 65 of the living tissue 60 present in the cross section 64 . The control unit 41 identifies the position where the straight line extending from the position of the center of gravity Pb in the cross-sectional image 54 in the designated direction identified in step S313 intersects the detected inner wall surface 65 as the corresponding position.
  • step S315 the control unit 41 of the image processing device 11 performs control to display the mark 55 at the corresponding position identified in step S314.
  • step S314 the control unit 41 of the image processing apparatus 11 causes the detected inner wall surface 65 to extend from the position of the center of gravity Pb in the cross-sectional image 54 in the specified direction specified in step S313.
  • the distance between the inner wall surface 65 and the display position of the mark 55 is stored in the storage unit 42, read out and applied each time the mark 55 is displayed.
  • step S314 the control unit 41 of the image processing apparatus 11 causes the detected inner wall surface 65 to extend from the position of the center of gravity Pb in the cross-sectional image 54 in the specified direction specified in step S313.
  • the distance between the inner wall surface 65 and the display position of the mark 55 or the distance between the outer wall surface of the biological tissue 60 and the display position of the mark 55 is stored in the storage unit 42, and the display of the mark 55 is performed. is read and applied every time
  • the relative display position of the mark 55 between the inner wall surface 65 and the outer wall surface is stored in the storage unit 42 and read and applied each time the mark 55 is displayed.
  • a mark 55 may indicate the cauterization position.
  • the lumen 61 of the biological tissue 60 is displayed as a three-dimensional object, and the biological tissue 60 is hidden so that the shape of the lumen 61 can be seen.
  • the outer surface of the three-dimensional object representing lumen 61 corresponds to inner wall surface 65 of living tissue 60 .
  • control unit 41 of the image processing apparatus 11 may refer to the tomographic data 51 to calculate the distance from the center of gravity Pb to the point Pd in the cross section 64.
  • the control unit 41 may specify, as the corresponding position, a position on the straight line extending in the designated direction from the position of the center of gravity Pb in the cross-sectional image 54 and separated from the position of the center of gravity Pb in the designated direction by the calculated distance.
  • the control unit 41 of the image processing apparatus 11 refers to the tomographic data 51, which is a data set obtained using a sensor that moves in the lumen 61 of the biological tissue 60, and An image representing tissue 60 is displayed on display 16 .
  • the control unit 41 acquires designation data that designates at least one location in the space corresponding to the tomographic data 51 as the point Pd.
  • the control unit 41 refers to the tomographic data 51 and specifies the direction of the point Pd from the center of gravity Pb in the cross section 64 of the biological tissue 60 that includes the point Pd and is perpendicular to the moving direction of the sensor as the designated direction.
  • the control unit 41 identifies the position corresponding to the point Pd in the image representing the biological tissue 60 as the corresponding position, according to the identified designated direction and the position of the center of gravity Pb.
  • the control unit 41 performs control to display the mark 55 at the specified corresponding position when the image representing the living tissue 60 is displayed. Therefore, according to this embodiment, the system for marking the point Pd of the living tissue 60 can eliminate marking deviation.
  • the cross-sectional image 54 is used as the "image representing the biological tissue 60", but instead of the cross-sectional image 54, the three-dimensional image 53 may be used.
  • the control unit 41 of the image processing device 11 controls the image representing the biological tissue 60 to include a first area including the corresponding position and a second area around the first area in the entire inner wall surface of the biological tissue 60.
  • the display of the mark 55 may be controlled by setting the and to different colors. If one point is specified by two-dimensional coordinates or three-dimensional coordinates when the point Pd is specified, a certain range centered on the specified point is marked as the first area. If a range centered on a point is specified, the specified range is marked as the first region. For example, a range of a certain size may be specified as the first area with a circular or spherical pointer.
  • marks 55 are displayed at respective positions corresponding to the plurality of locations.
  • the mark 55 may be displayed only for locations that exist on the cross section 64 corresponding to the position of the sensor.
  • the information of the image in which the mark 55 is set may be stored, and when the same image is displayed as the cross-sectional image 54, the set mark 55 may be displayed.
  • the control unit 41 of the image processing apparatus 11 determines whether the catheter 63 inserted into the biological tissue 60 and the catheter 63 among the plurality of locations are selected. Further, control may be performed to display the distance between the point closest to , on the cross-sectional image 54 . Alternatively, when only one point is designated as the point Pd, the control unit 41 may further perform control to display the distance between the catheter 63 and the one point on the cross-sectional image 54 .
  • the unit of displayed distance is, for example, millimeters. The displayed distance may be the distance on the plane, but it is the distance in the three-dimensional space, ie the actual distance. In the example of FIG.
  • points P1, P2, P3, P4, P5 and P6 six locations on the inner wall surface 65 of the living tissue 60 cauterized by the catheter 63 are designated as points P1, P2, P3, P4, P5 and P6. Assuming that the point designated as point P6 among these six points is closest to the catheter 63, the distance between the catheter 63 and the position corresponding to the point P6 in the cross-sectional image 54 is displayed on the cross-sectional image 54. . In the example of FIG. 26, the text "15.7 mm" is displayed as the distance.
  • the control unit 41 may further perform control to display a mark different from the mark 55 at a position corresponding to the catheter 63 in the cross-sectional image 54, as shown in FIG.
  • the control unit 41 of the image processing device 11 draws a line 56 connecting the catheter 63 and the location closest to the catheter 63 among the multiple locations. Further control to display on the cross-sectional image 54 may be performed. Alternatively, when only one point is designated as the point Pd, the control unit 41 may further perform control to display a line connecting the catheter 63 and the one point on the cross-sectional image 54 .
  • six locations on the inner wall surface 65 of the living tissue 60 cauterized by the catheter 63 are designated as points P1, P2, P3, P4, P5 and P6.
  • the straight line connecting the catheter 63 and the position corresponding to the point P6 in the cross-sectional image 54 is the line 56 on the cross-sectional image 54.
  • a mark different from the mark 55 is displayed at a position corresponding to the catheter 63 in the cross-sectional image 54, and a straight line connecting this mark and the mark M6 is displayed.
  • the goal is to disconnect the source of suspicious electricity from the heart region by cauterizing it linearly or circumferentially using an ablation catheter.
  • the cauterization points are too far apart and disconnection fails, making it impossible to achieve the surgical goal. Therefore, it is necessary to close the intervals between the cauterization points.
  • the next ablation point can be determined by looking at the distance between the ablation catheter and the ablation point closest to the ablation catheter in the two-dimensional image. Therefore, it becomes easier to close the intervals between the cauterization points. As a result, the possibility of achieving the procedure goal can be increased.
  • the control unit 41 of the image processing device 11 determines the distance between the catheter 63 and the location closest to the catheter 63 among the plurality of locations. Further control may be performed to display the distance on the three-dimensional image 53 . Alternatively, the control unit 41 may further perform control to display the distance between the catheter 63 and the one point on the three-dimensional image 53 when only one point is designated as the point Pd.
  • the unit of displayed distance is, for example, millimeters.
  • the displayed distance is the distance in the three-dimensional space, ie the actual distance. In the example of FIG.
  • the control unit 41 of the image processing device 11 draws a line 57 connecting the catheter 63 and the location closest to the catheter 63 among the plurality of locations. Further control to display on the three-dimensional image 53 may be performed. Alternatively, when only one point is designated as the point Pd, the control unit 41 may further perform control to display a line connecting the catheter 63 and the one point on the three-dimensional image 53 .
  • six locations on the inner wall surface 65 of the living tissue 60 cauterized by the catheter 63 are designated as points P1, P2, P3, P4, P5 and P6.
  • the straight line connecting the catheter 63 and the position corresponding to the point P6 in the cross-sectional image 54 is the line 57 in the three-dimensional image 53. displayed above.
  • a straight line connecting the tip of the catheter 63 in the three-dimensional image 53 and the point P6 is displayed.
  • the next ablation point can be determined while looking at the distance between the ablation catheter and the ablation point closest to the ablation catheter in the three-dimensional image 53 . Therefore, it becomes easier to close the intervals between the cauterization points. As a result, the possibility of achieving the procedure goal can be increased.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computer Graphics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

画像処理装置は、生体組織の内腔を移動するセンサを用いて得られたデータセットである断層データを参照して、前記センサの移動方向に直交する前記生体組織の断面を表す断面画像をディスプレイに表示させる画像処理装置であって、前記断層データに対応する空間内の少なくとも1箇所を指定する指定データを取得し、前記断面画像が表示されているときに、前記断面画像における前記少なくとも1箇所に対応する位置に、前記移動方向における前記少なくとも1箇所と前記断面との間の距離によって異なるマークを表示する制御を行う制御部を備える。

Description

画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
 本開示は、画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラムに関する。
 特許文献1から特許文献3には、US画像システムを用いて心腔又は血管の3次元画像を生成する技術が記載されている。「US」は、ultrasoundの略語である。
 特許文献4には、電極付きカテーテルの先端の位置を表す環又は正方形を3次元画像上に表示する技術が記載されている。
米国特許出願公開第2010/0215238号明細書 米国特許第6385332号明細書 米国特許第6251072号明細書 特開2020-078551号公報
 心腔内、心臓血管、及び下肢動脈領域などに対してIVUSを用いる治療が広く行われている。「IVUS」は、intravascular ultrasoundの略語である。IVUSとはカテーテル長軸に対して垂直平面の2次元画像を提供するデバイス又は方法のことである。
 現状として、術者は頭の中でIVUSの2次元画像を積層することで、立体構造を再構築しながら施術を行う必要があり、特に若年層の医師、又は経験の浅い医師にとって障壁がある。そのような障壁を取り除くために、IVUSの2次元画像から心腔又は血管などの生体組織の構造を表現する3次元画像を自動生成し、生成した3次元画像を術者に向けて表示することが考えられる。
 昨今、心腔内をアブレーションカテーテルで焼灼することにより、電気的遮断を行う手技が普及している。カテーテルに位置センサを積み、位置センサが心筋組織に触れた際の位置情報を用いて3次元画像を描画する3Dマッピングシステムがその手技において主に使用されているが、非常に高価でありコストを要する。PV又はSVCの円周隔離を行う場合は、どの箇所を焼灼したかをマーキングする操作が求められるが、IVUSを使用してこのような操作を完結することができれば、コストを下げられる可能性がある。「PV」は、pulmonary veinの略語である。「SVC」は、superior vena cavaの略語である。
 生体組織の焼灼された箇所など、少なくとも1箇所をマーキングするためのシステムで、単にマークを表示するだけでは、術者などのユーザにとってシステムの有用性が十分であるとはいえない。
 本開示の目的は、生体組織に関連する少なくとも1箇所をマーキングするためのシステムの有用性を向上させることである。
 本開示の一態様としての画像処理装置は、生体組織の内腔を移動するセンサを用いて得られたデータセットである断層データを参照して、前記センサの移動方向に直交する前記生体組織の断面を表す断面画像をディスプレイに表示させる画像処理装置であって、前記断層データに対応する空間内の少なくとも1箇所を指定する指定データを取得し、前記断面画像が表示されているときに、前記断面画像における前記少なくとも1箇所に対応する位置に、前記移動方向における前記少なくとも1箇所と前記断面との間の距離によって異なるマークを表示する制御を行う制御部を備える。
 一実施形態として、前記制御部は、前記距離によって、前記マークの色、明るさ、透過度、模様、大きさ、形状、又は向きを変える。
 一実施形態として、前記制御部は、前記マークを表示する制御を行う際に、前記距離を表示する制御を更に行う。
 一実施形態として、前記制御部は、前記距離が閾値を超える場合は、前記マークを非表示にする。
 一実施形態として、前記制御部は、前記移動方向における前記断面の前後どちらに前記少なくとも1箇所が存在するかによって前記マークを変える。
 一実施形態として、前記少なくとも1箇所は、前記生体組織の焼灼された箇所であり、前記制御部は、前記断面画像が表示されているときに、前記生体組織を焼灼するためのカテーテルと前記少なくとも1箇所との間の距離を表示する制御を更に行う。
 一実施形態として、前記制御部は、前記少なくとも1箇所が1箇所のみの場合は、前記生体組織に挿入されているカテーテルと前記1箇所との間の距離を前記断面画像上で表示する制御、前記少なくとも1箇所が複数箇所の場合は、前記カテーテルと前記複数箇所のうち前記カテーテルに最も近い箇所との間の距離を前記断面画像上で表示する制御を更に行う。
 一実施形態として、前記制御部は、前記少なくとも1箇所が1箇所のみの場合は、前記生体組織に挿入されているカテーテルと前記1箇所とを結ぶ線を前記断面画像上で表示する制御、前記少なくとも1箇所が複数箇所の場合は、前記カテーテルと前記複数箇所のうち前記カテーテルに最も近い箇所とを結ぶ線を前記断面画像上で表示する制御を更に行う。
 一実施形態として、前記制御部は、前記断層データを参照して、前記生体組織を表す3次元データを生成し、生成した3次元データを3次元画像として前記ディスプレイに表示させ、前記少なくとも1箇所が1箇所のみの場合は、前記生体組織に挿入されているカテーテルと前記1箇所との間の距離を前記3次元画像上で表示する制御、前記少なくとも1箇所が複数箇所の場合は、前記カテーテルと前記複数箇所のうち前記カテーテルに最も近い箇所との間の距離を前記3次元画像上で表示する制御を更に行う。
 一実施形態として、前記制御部は、前記断層データを参照して、前記生体組織を表す3次元データを生成し、生成した3次元データを3次元画像として前記ディスプレイに表示させ、前記少なくとも1箇所が1箇所のみの場合は、前記生体組織に挿入されているカテーテルと前記1箇所とを結ぶ線を前記3次元画像上で表示する制御、前記少なくとも1箇所が複数箇所の場合は、前記カテーテルと前記複数箇所のうち前記カテーテルに最も近い箇所とを結ぶ線を前記3次元画像上で表示する制御を更に行う。
 一実施形態として、前記制御部は、前記断面画像上で前記少なくとも1箇所を指定するユーザ操作を受け付ける。
 一実施形態として、前記制御部は、前記センサを用いて新たなデータセットが得られる度に、前記断面画像として、前記センサの位置に対応する断面を表す新たな画像を前記ディスプレイに表示させる。
 本開示の一態様としての画像処理システムは、前記画像処理装置と、前記センサとを備える。
 一実施形態として、前記画像処理システムは、前記ディスプレイを更に備える。
 本開示の一態様としての画像表示方法は、生体組織の内腔を移動するセンサを用いて得られたデータセットである断層データを参照して、前記センサの移動方向に直交する前記生体組織の断面を表す断面画像をディスプレイに表示する画像表示方法であって、コンピュータが、前記断層データに対応する空間内の少なくとも1箇所を指定する指定データを取得し、前記コンピュータが、前記断面画像が表示されているときに、前記断面画像における前記少なくとも1箇所に対応する位置に、前記移動方向における前記少なくとも1箇所と前記断面との間の距離によって異なるマークを表示する制御を行う、というものである。
 本開示の一態様としての画像処理プログラムは、生体組織の内腔を移動するセンサを用いて得られたデータセットである断層データを参照して、前記センサの移動方向に直交する前記生体組織の断面を表す断面画像をディスプレイに表示させるコンピュータに、前記断層データに対応する空間内の少なくとも1箇所を指定する指定データを取得する処理と、前記断面画像が表示されているときに、前記断面画像における前記少なくとも1箇所に対応する位置に、前記移動方向における前記少なくとも1箇所と前記断面との間の距離によって異なるマークを表示する制御を行う処理とを実行させる。
 本開示によれば、生体組織に関連する少なくとも1箇所をマーキングするためのシステムの有用性が向上する。
本開示の実施形態に係る画像処理システムの斜視図である。 本開示の実施形態に係る画像処理システムによりディスプレイに表示される3次元画像及び断面画像の例を示す図である。 本開示の実施形態に係る画像処理システムにより形成される切断領域の例を示す図である。 本開示の実施形態に係る画像処理装置の構成を示すブロック図である。 本開示の実施形態に係るプローブ及び駆動ユニットの斜視図である。 本開示の実施形態に係る画像処理システムの動作を示すフローチャートである。 本開示の実施形態に係る画像処理システムの動作を示すフローチャートである。 本開示の実施形態に係る画像処理システムにおいて指定される箇所の例を示す図である。 本開示の実施形態に係る画像処理システムにおいて指定される箇所の例を示す図である。 本開示の実施形態に係る画像処理システムにおいて指定される箇所の例を示す図である。 本開示の実施形態に係る画像処理システムにおいて指定される箇所の例を示す図である。 本開示の実施形態に係る画像処理システムの動作を示すフローチャートである。 本開示の実施形態において生体組織の断面画像を2値化した結果を示す図である。 本開示の実施形態において生体組織の内壁面の点群を抽出した結果を示す図である。 本開示の実施形態において生体組織の断面の重心位置を算出した結果を示す図である。 本開示の実施形態において生体組織の複数断面の重心位置を算出した結果を示す図である。 図16の結果に対してスムージングを実行した結果を示す図である。 本開示の実施形態に係る画像処理システムにおいて指定される箇所の例を示す図である。 本開示の実施形態に係る画像処理システムにおいて指定される箇所の例を示す図である。 本開示の実施形態に係る画像処理システムによりディスプレイに表示されるマークの例を示す図である。 本開示の実施形態に係る画像処理システムの動作を示すフローチャートである。 本開示の実施形態の変形例に係る画像処理システムにおいて指定される箇所の例を示す図である。 本開示の実施形態の変形例に係る画像処理システムにおいて指定される箇所の例を示す図である。 本開示の実施形態の変形例に係る画像処理システムによりディスプレイに表示されるマークの例を示す図である。 本開示の実施形態の別の変形例に係る画像処理システムによりディスプレイに表示されるマークの例を示す図である。 本開示の実施形態の更なる別の変形例に係る画像処理システムによりディスプレイに表示される3次元画像及び断面画像の例を示す図である。
 以下、本開示の幾つかの実施形態について、図を参照して説明する。
 各図中、同一又は相当する部分には、同一符号を付している。それぞれの実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。
 本開示の一実施形態について説明する。
 図1から図4を参照して、本実施形態の概要を説明する。
 本実施形態に係る画像処理装置11は、生体組織60の内腔61を移動するセンサを用いて得られたデータセットである断層データ51を参照して、センサの移動方向に直交する生体組織60の断面64を表す断面画像54をディスプレイ16に表示させるコンピュータである。
 画像処理装置11は、断層データ51に対応する空間内の少なくとも1箇所をポイントPdとして指定する指定データを取得する。図2の例では、生体組織60の内壁面65の、カテーテル63で焼灼された6箇所がポイントP1,P2,P3,P4,P5,P6として指定されている。
 画像処理装置11は、断面画像54が表示されているときに、断面画像54におけるポイントPdに対応する位置に、センサの移動方向におけるポイントPdと断面64との間の距離によって異なるマーク55を表示する制御を行う。断面画像54におけるポイントPdに対応する位置とは、ポイントPdをセンサの移動方向において断面64と同じ位置にシフトした位置のことである。図2の例では、断面画像54におけるポイントP1,P2,P3,P4,P5,P6に対応する位置に、マークM1,M2,M3,M4,M5,M6がそれぞれ表示されている。マークM5,M6は、ポイントP5,P6が断面64に存在するため、最も濃い色で表示されている。マークM4は、ポイントP4がセンサの移動方向において断面64から距離Dbだけ離れているため、マークM5,M6よりも薄い色で表示されている。マークM2,M3は、ポイントP2,P3がセンサの移動方向において断面64から距離Dcだけ離れており、距離Dcが距離Dbよりも長いため、最も薄い色で表示されている。マークM1は、ポイントP1がセンサの移動方向において断面64から距離Daだけ離れており、距離Daが距離Dbと等しいため、マークM4と同じ色で表示されている。
 本実施形態によれば、断層データ51に対応する空間内の少なくとも1箇所をマーキングするためのシステムで、センサの移動方向における当該箇所の相対位置がユーザにとって直感的に理解できるようになる。したがって、システムの有用性が向上する。
 本実施形態では、画像処理装置11は、センサを用いて得られたデータセットである断層データ51を参照して、生体組織60を表す3次元データ52を生成及び更新する。画像処理装置11は、3次元データ52を3次元画像53として、断面画像54とともにディスプレイ16に表示させる。すなわち、画像処理装置11は、断層データ51を参照して、3次元画像53及び断面画像54をディスプレイ16に表示させる。
 画像処理装置11は、3次元画像53において生体組織60の内腔61を露出させる開口62を3次元データ52に形成する。図2の例では、ポイントP1,P2,P3,P4,P5,P6の全てが見えるように開口62が形成されている。そして、開口62の位置に応じて、3次元画像53を画面に表示する際の視点が調整されている。視点とは、3次元空間に配置される仮想のカメラの位置のことである。
 本実施形態によれば、3次元画像53において、生体組織60の構造の一部を切り取ることで、生体組織60の内腔61を覗けるようにすることができる。
 生体組織60は、例えば、血管、又は心臓などの臓器を含む。生体組織60は、解剖学的に単一の器官又はその一部のみに限らず、複数の器官を跨いで内腔を有する組織も含む。そのような組織の一例として、具体的には、下大静脈の上部から右心房を抜けて上大静脈の下部に至る血管系組織の一部が挙げられる。図2及び図3の例では、生体組織60は、血管である。
 図2において、Z方向は、センサの移動方向に相当するが、図3に示すように、便宜上、Z方向は、生体組織60の内腔61の長手方向に相当するとみなしてもよい。Z方向に直交するX方向、並びにZ方向及びX方向に直交するY方向は、それぞれ生体組織60の内腔61の短手方向に相当するとみなしてもよい。
 図3の例では、画像処理装置11は、3次元データ52を用いて生体組織60の断面C1,C2,C3,C4それぞれの重心B1,B2,B3,B4の位置を算出する。画像処理装置11は、重心B1,B2,B3,B4の位置を通る1本の線Lbで交わる1対の面を切断面D1,D2として設定する。画像処理装置11は、3次元画像53において切断面D1,D2に挟まれ、生体組織60の内腔61を露出させる領域を切断領域66として3次元データ52に形成する。3次元画像53では、切断領域66が非表示又は透明に設定されることで、図2のような開口62が形成される。
 図3のように屈曲した血管の3次元モデルの場合、1つの平面をもって3次元モデルを切断して内腔61を表示すると、正しく血管内を表示し得ないケースがある。本実施形態では、図3のように、血管の重心を捕捉し続けることにより、確実に血管の中を表示し得るように3次元モデルを切断することが可能となる。
 図3では、便宜上、Z方向に直交する生体組織60の複数断面として、4つの断面C1,C2,C3,C4を示しているが、重心位置の算出対象となる断面の数は4つに限らず、好適にはIVUSで取得される断面画像の数と同数である。
 図1を参照して、本実施形態に係る画像処理システム10の構成を説明する。
 画像処理システム10は、画像処理装置11、ケーブル12、駆動ユニット13、キーボード14、マウス15、及びディスプレイ16を備える。
 画像処理装置11は、本実施形態では画像診断に特化した専用のコンピュータであるが、PCなどの汎用のコンピュータでもよい。「PC」は、personal computerの略語である。
 ケーブル12は、画像処理装置11と駆動ユニット13とを接続するために用いられる。
 駆動ユニット13は、図5に示すプローブ20に接続して用いられ、プローブ20を駆動する装置である。駆動ユニット13は、MDUとも呼ばれる。「MDU」は、motor drive unitの略語である。プローブ20は、IVUSに適用される。プローブ20は、IVUSカテーテル又は画像診断用カテーテルとも呼ばれる。
 キーボード14、マウス15、及びディスプレイ16は、任意のケーブルを介して、又は無線で画像処理装置11と接続される。ディスプレイ16は、例えば、LCD、有機ELディスプレイ、又はHMDである。「LCD」は、liquid crystal displayの略語である。「EL」は、electro luminescenceの略語である。「HMD」は、head-mounted displayの略語である。
 画像処理システム10は、オプションとして、接続端子17及びカートユニット18を更に備える。
 接続端子17は、画像処理装置11と外部機器とを接続するために用いられる。接続端子17は、例えば、USB端子である。「USB」は、Universal Serial Busの略語である。外部機器は、例えば、磁気ディスクドライブ、光磁気ディスクドライブ、又は光ディスクドライブなどの記録媒体である。
 カートユニット18は、移動用のキャスタ付きのカートである。カートユニット18のカート本体には、画像処理装置11、ケーブル12、及び駆動ユニット13が設置される。カートユニット18の最上部のテーブルには、キーボード14、マウス15、及びディスプレイ16が設置される。
 図5を参照して、本実施形態に係るプローブ20及び駆動ユニット13の構成を説明する。
 プローブ20は、駆動シャフト21、ハブ22、シース23、外管24、超音波振動子25、及び中継コネクタ26を備える。
 駆動シャフト21は、生体の体腔内に挿入されるシース23と、シース23の基端に接続した外管24とを通り、プローブ20の基端に設けられたハブ22の内部まで延びている。駆動シャフト21は、信号を送受信する超音波振動子25を先端に有してシース23及び外管24内に回転可能に設けられる。中継コネクタ26は、シース23及び外管24を接続する。
 ハブ22、駆動シャフト21、及び超音波振動子25は、それぞれが一体的に軸方向に進退移動するように互いに接続される。そのため、例えば、ハブ22が先端側に向けて押される操作がなされると、駆動シャフト21及び超音波振動子25がシース23の内部を先端側へ移動する。例えば、ハブ22が基端側に引かれる操作がなされると、駆動シャフト21及び超音波振動子25は、矢印で示すように、シース23の内部を基端側へ移動する。
 駆動ユニット13は、スキャナユニット31、スライドユニット32、及びボトムカバー33を備える。
 スキャナユニット31は、ケーブル12を介して画像処理装置11と接続する。スキャナユニット31は、プローブ20と接続するプローブ接続部34と、駆動シャフト21を回転させる駆動源であるスキャナモータ35とを備える。
 プローブ接続部34は、プローブ20の基端に設けられたハブ22の差込口36を介して、プローブ20と着脱自在に接続する。ハブ22の内部では、駆動シャフト21の基端が回転自在に支持されており、スキャナモータ35の回転力が駆動シャフト21に伝えられる。また、ケーブル12を介して駆動シャフト21と画像処理装置11との間で信号が送受信される。画像処理装置11では、駆動シャフト21から伝わる信号に基づき、生体管腔の断層画像の生成、及び画像処理が行われる。
 スライドユニット32は、スキャナユニット31を進退自在に載せており、スキャナユニット31と機械的かつ電気的に接続している。スライドユニット32は、プローブクランプ部37、スライドモータ38、及びスイッチ群39を備える。
 プローブクランプ部37は、プローブ接続部34よりも先端側でこれと同軸的に配置して設けられており、プローブ接続部34に接続されるプローブ20を支持する。
 スライドモータ38は、軸方向の駆動力を生じさせる駆動源である。スライドモータ38の駆動によってスキャナユニット31が進退動し、それに伴って駆動シャフト21が軸方向に進退動する。スライドモータ38は、例えば、サーボモータである。
 スイッチ群39には、例えば、スキャナユニット31の進退操作の際に押されるフォワードスイッチ及びプルバックスイッチ、並びに画像描写の開始及び終了の際に押されるスキャンスイッチが含まれる。ここでの例に限定されず、必要に応じて種々のスイッチがスイッチ群39に含まれる。
 フォワードスイッチが押されると、スライドモータ38が正回転し、スキャナユニット31が前進する。一方、プルバックスイッチが押されると、スライドモータ38が逆回転し、スキャナユニット31が後退する。
 スキャンスイッチが押されると画像描写が開始され、スキャナモータ35が駆動するとともに、スライドモータ38が駆動してスキャナユニット31を後退させていく。術者などのユーザは、事前にプローブ20をスキャナユニット31に接続しておき、画像描写開始とともに駆動シャフト21が回転しつつ軸方向基端側に移動するようにする。スキャナモータ35及びスライドモータ38は、スキャンスイッチが再度押されると停止し、画像描写が終了する。
 ボトムカバー33は、スライドユニット32の底面及び底面側の側面全周を覆っており、スライドユニット32の底面に対して近接離間自在である。
 図4を参照して、画像処理装置11の構成を説明する。
 画像処理装置11は、制御部41と、記憶部42と、通信部43と、入力部44と、出力部45とを備える。
 制御部41は、少なくとも1つのプロセッサ、少なくとも1つのプログラマブル回路、少なくとも1つの専用回路、又はこれらの任意の組合せを含む。プロセッサは、CPU若しくはGPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサである。「CPU」は、central processing unitの略語である。「GPU」は、graphics processing unitの略語である。プログラマブル回路は、例えば、FPGAである。「FPGA」は、field-programmable gate arrayの略語である。専用回路は、例えば、ASICである。「ASIC」は、application specific integrated circuitの略語である。制御部41は、画像処理装置11を含む画像処理システム10の各部を制御しながら、画像処理装置11の動作に関わる処理を実行する。
 記憶部42は、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ、又はこれらの任意の組合せを含む。半導体メモリは、例えば、RAM又はROMである。「RAM」は、random access memoryの略語である。「ROM」は、read only memoryの略語である。RAMは、例えば、SRAM又はDRAMである。「SRAM」は、static random access memoryの略語である。「DRAM」は、dynamic random access memoryの略語である。ROMは、例えば、EEPROMである。「EEPROM」は、electrically erasable programmable read only memoryの略語である。記憶部42は、例えば、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。記憶部42には、断層データ51など、画像処理装置11の動作に用いられるデータと、3次元データ52及び3次元画像53など、画像処理装置11の動作によって得られたデータとが記憶される。
 通信部43は、少なくとも1つの通信用インタフェースを含む。通信用インタフェースは、例えば、有線LANインタフェース、無線LANインタフェース、又はIVUSの信号を受信及びA/D変換する画像診断用インタフェースである。「LAN」は、local area networkの略語である。「A/D」は、analog to digitalの略語である。通信部43は、画像処理装置11の動作に用いられるデータを受信し、また画像処理装置11の動作によって得られるデータを送信する。本実施形態では、通信部43に含まれる画像診断用インタフェースに駆動ユニット13が接続される。
 入力部44は、少なくとも1つの入力用インタフェースを含む。入力用インタフェースは、例えば、USBインタフェース、HDMI(登録商標)インタフェース、又はBluetooth(登録商標)などの近距離無線通信規格に対応したインタフェースである。「HDMI(登録商標)」は、High-Definition Multimedia Interfaceの略語である。入力部44は、画像処理装置11の動作に用いられるデータを入力する操作などのユーザの操作を受け付ける。本実施形態では、入力部44に含まれるUSBインタフェース、又は近距離無線通信に対応したインタフェースにキーボード14及びマウス15が接続される。タッチスクリーンがディスプレイ16と一体的に設けられている場合、入力部44に含まれるUSBインタフェース又はHDMI(登録商標)インタフェースにディスプレイ16が接続されてもよい。
 出力部45は、少なくとも1つの出力用インタフェースを含む。出力用インタフェースは、例えば、USBインタフェース、HDMI(登録商標)インタフェース、又はBluetooth(登録商標)などの近距離無線通信規格に対応したインタフェースである。出力部45は、画像処理装置11の動作によって得られるデータを出力する。本実施形態では、出力部45に含まれるUSBインタフェース又はHDMI(登録商標)インタフェースにディスプレイ16が接続される。
 画像処理装置11の機能は、本実施形態に係る画像処理プログラムを、制御部41としてのプロセッサで実行することにより実現される。すなわち、画像処理装置11の機能は、ソフトウェアにより実現される。画像処理プログラムは、画像処理装置11の動作をコンピュータに実行させることで、コンピュータを画像処理装置11として機能させる。すなわち、コンピュータは、画像処理プログラムに従って画像処理装置11の動作を実行することにより画像処理装置11として機能する。
 プログラムは、非一時的なコンピュータ読取り可能な媒体に記憶しておくことができる。非一時的なコンピュータ読取り可能な媒体は、例えば、フラッシュメモリ、磁気記録装置、光ディスク、光磁気記録媒体、又はROMである。プログラムの流通は、例えば、プログラムを記憶したSDカード、DVD、又はCD-ROMなどの可搬型媒体を販売、譲渡、又は貸与することによって行う。「SD」は、Secure Digitalの略語である。「DVD」は、digital versatile discの略語である。「CD-ROM」は、compact disc read only memoryの略語である。プログラムをサーバのストレージに格納しておき、サーバから他のコンピュータにプログラムを転送することにより、プログラムを流通させてもよい。プログラムをプログラムプロダクトとして提供してもよい。
 コンピュータは、例えば、可搬型媒体に記憶されたプログラム又はサーバから転送されたプログラムを、一旦、主記憶装置に格納する。そして、コンピュータは、主記憶装置に格納されたプログラムをプロセッサで読み取り、読み取ったプログラムに従った処理をプロセッサで実行する。コンピュータは、可搬型媒体から直接プログラムを読み取り、プログラムに従った処理を実行してもよい。コンピュータは、コンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行してもよい。サーバからコンピュータへのプログラムの転送は行わず、実行指示及び結果取得のみによって機能を実現する、いわゆるASP型のサービスによって処理を実行してもよい。「ASP」は、application service providerの略語である。プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるものを含む。例えば、コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータは、「プログラムに準ずるもの」に該当する。
 画像処理装置11の一部又は全ての機能が、制御部41としてのプログラマブル回路又は専用回路により実現されてもよい。すなわち、画像処理装置11の一部又は全ての機能が、ハードウェアにより実現されてもよい。
 図6を参照して、本実施形態に係る画像処理システム10の動作を説明する。画像処理システム10の動作は、本実施形態に係る画像表示方法に相当する。
 図6のフローの開始前に、ユーザによって、プローブ20がプライミングされる。その後、プローブ20が駆動ユニット13のプローブ接続部34及びプローブクランプ部37に嵌め込まれ、駆動ユニット13に接続及び固定される。そして、プローブ20が血管又は心臓などの生体組織60内の目的部位まで挿入される。
 ステップS101において、スイッチ群39に含まれるスキャンスイッチが押され、更にスイッチ群39に含まれるプルバックスイッチが押されることで、いわゆるプルバック操作が行われる。プローブ20は、生体組織60の内部で、プルバック操作によって軸方向に後退する超音波振動子25により超音波を送信する。超音波振動子25は、生体組織60の内部を移動しながら放射線状に超音波を送信する。超音波振動子25は、送信した超音波の反射波を受信する。プローブ20は、超音波振動子25により受信した反射波の信号を画像処理装置11に入力する。画像処理装置11の制御部41は、入力された信号を処理して生体組織60の断面画像を順次生成することで、複数の断面画像を含む断層データ51を取得する。
 具体的には、プローブ20は、生体組織60の内部で超音波振動子25を周方向に回転させながら、かつ軸方向に移動させながら、超音波振動子25により、回転中心から外側に向かう複数方向に超音波を送信する。プローブ20は、生体組織60の内部で複数方向のそれぞれに存在する反射物からの反射波を超音波振動子25により受信する。プローブ20は、受信した反射波の信号を、駆動ユニット13及びケーブル12を介して画像処理装置11に送信する。画像処理装置11の通信部43は、プローブ20から送信された信号を受信する。通信部43は、受信した信号をA/D変換する。通信部43は、A/D変換した信号を制御部41に入力する。制御部41は、入力された信号を処理して、超音波振動子25の超音波の送信方向に存在する反射物からの反射波の強度値分布を算出する。制御部41は、算出した強度値分布に相当する輝度値分布を持つ2次元画像を生体組織60の断面画像として順次生成することで、断面画像のデータセットである断層データ51を取得する。制御部41は、取得した断層データ51を記憶部42に記憶させる。
 本実施形態において、超音波振動子25が受信する反射波の信号は、断層データ51の生データに相当し、画像処理装置11が反射波の信号を処理して生成する断面画像は、断層データ51の加工データに相当する。
 本実施形態の一変形例として、画像処理装置11の制御部41は、プローブ20から入力された信号をそのまま断層データ51として記憶部42に記憶させてもよい。あるいは、制御部41は、プローブ20から入力された信号を処理して算出した反射波の強度値分布を示すデータを断層データ51として記憶部42に記憶させてもよい。すなわち、断層データ51は、生体組織60の断面画像のデータセットに限られず、超音波振動子25の各移動位置における生体組織60の断面を何らかの形式で表すデータであればよい。
 本実施形態の一変形例として、周方向に回転しながら複数方向に超音波を送信する超音波振動子25の代わりに、回転することなく複数方向に超音波を送信する超音波振動子を用いてもよい。
 本実施形態の一変形例として、断層データ51は、IVUSを用いて取得される代わりに、OFDI又はOCTを用いて取得されてもよい。「OFDI」は、optical frequency domain imagingの略語である。「OCT」は、optical coherence tomographyの略語である。OFDI又はOCTが用いられる場合、生体組織60の内腔61を移動しながら断層データ51を取得するセンサとして、生体組織60の内腔61で超音波を送信して断層データ51を取得する超音波振動子25の代わりに、生体組織60の内腔61で光を放射して断層データ51を取得するセンサが用いられる。
 本実施形態の一変形例として、画像処理装置11が生体組織60の断面画像のデータセットを生成する代わりに、他の装置が同様のデータセットを生成し、画像処理装置11はそのデータセットを当該他の装置から取得してもよい。すなわち、画像処理装置11の制御部41が、IVUSの信号を処理して生体組織60の断面画像を生成する代わりに、他の装置が、IVUSの信号を処理して生体組織60の断面画像を生成し、生成した断面画像を画像処理装置11に入力してもよい。
 ステップS102において、画像処理装置11の制御部41は、ステップS101で取得した断層データ51に基づいて生体組織60の3次元データ52を生成する。すなわち、制御部41は、センサによって取得された断層データ51に基づいて3次元データ52を生成する。ここで、既に生成済みの3次元データ52が存在する場合、全ての3次元データ52を一から生成し直すのではなく、更新された断層データ51が対応する箇所のデータのみを更新することが好ましい。その場合、3次元データ52を生成する際のデータ処理量を削減し、後のステップS103における3次元画像53のリアルタイム性を向上させることができる。
 具体的には、画像処理装置11の制御部41は、記憶部42に記憶された断層データ51に含まれる生体組織60の断面画像を積層して3次元化することで、生体組織60の3次元データ52を生成する。3次元化の手法としては、サーフェスレンダリング又はボリュームレンダリングなどのレンダリング手法、並びにそれに付随した、環境マッピングを含むテクスチャマッピング、及びバンプマッピングなどの種々の処理のうち任意の手法が用いられる。制御部41は、生成した3次元データ52を記憶部42に記憶させる。
 アブレーションカテーテルなど、IVUSカテーテルとは別のカテーテル63が生体組織60に挿入されている場合、断層データ51には、生体組織60のデータと同じように、カテーテル63のデータが含まれている。そのため、ステップS102において、制御部41により生成される3次元データ52にも、生体組織60のデータと同じように、カテーテル63のデータが含まれる。
 画像処理装置11の制御部41は、ステップS101で取得した断層データ51に含まれる断面画像のピクセル群を2つ以上のクラスに分類する。これら2つ以上のクラスには、少なくとも生体組織60が属する「組織」のクラスと、カテーテル63が属する「カテーテル」のクラスとが含まれ、「血球」のクラス、ガイドワイヤなど、「カテーテル」以外の「医療器具」のクラス、留置ステントなどの「留置物」のクラス、又は石灰若しくはプラークなどの「病変」のクラスが更に含まれていてもよい。分類方法としては、任意の方法を用いてよいが、本実施形態では、学習済みモデルによって断面画像のピクセル群を分類する方法が用いられる。学習済みモデルは、事前に機械学習を行うことによって、サンプルとなるIVUSの断面画像から、各クラスに該当する領域を検出できるように調教されている。
 ステップS103において、画像処理装置11の制御部41は、ステップS102で生成した3次元データ52を3次元画像53としてディスプレイ16に表示させる。この時点では、制御部41は、3次元画像53を表示させる角度を任意の角度に設定してよい。制御部41は、ステップS101で取得した断層データ51に含まれる最新の断面画像54を3次元画像53とともにディスプレイ16に表示させる。
 具体的には、画像処理装置11の制御部41は、記憶部42に記憶された3次元データ52から3次元画像53を生成する。制御部41は、記憶部42に記憶された断層データ51に含まれる生体組織60の断面画像のうち、最新の断面画像54と、生成した3次元画像53とを、出力部45を介してディスプレイ16に表示させる。
 図7を参照して、ステップS103で更に実行される処理の手順を説明する。
 断層データ51に対応する空間内の少なくとも1箇所がポイントPdとして指定済みである場合は、ステップS301及びステップS302の処理が実行される。指定済み箇所がない場合は、ステップS301及びステップS302の処理はスキップされる。
 ステップS301において、画像処理装置11の制御部41は、センサの移動方向における、ポイントPdから、断面画像54で表された生体組織60の断面64までの距離を算出する。
 ステップS302において、画像処理装置11の制御部41は、断面画像54におけるポイントPdに対応する位置に、ステップS301で算出した距離によって異なるマーク55を表示する制御を行う。制御部41は、本実施形態では、算出した距離によって、マーク55の色を変えるが、色とともに、又は色の代わりに、明るさ、透過度、模様、大きさ、形状、向き、又はこれらの任意の組合せを変えてもよい。例えば、ポイントPdが断面64に近ければマーク55を大きくし、離れていればマーク55を小さくしてもよい。あるいは、ポイントPdが断面64に存在していればマーク55を矩形、別の断面に存在していればマーク55を円形など、矩形以外の形状にしてもよい。あるいは、ポイントPdが断面64に存在していればマーク55を白枠で囲うか、又は点滅させてもよい。これらの例によれば、1画面で、過去の焼灼位置がどの程度離れているのか、及びどの角度方向を既に焼灼しているのかを明確にすることができる。
 図2の例では、ポイントP1,P2,P3,P4,P5が指定済みであるとすると、画像処理装置11の制御部41は、ポイントP1について距離Da、ポイントP2,P3について距離Dc、ポイントP4について距離Db、ポイントP5について距離0を算出する。距離Daが距離Dbと等しく、距離Dcが距離Dbよりも長いとすると、制御部41は、断面画像54におけるポイントP5に対応する位置に、最も濃い色のマークM5、断面画像54におけるポイントP1,P4に対応する位置に、マークM5よりも薄い色のマークM1,M4、断面画像54におけるポイントP2,P3に対応する位置に、最も薄い色のマークM2,M3を表示する制御を行う。
 本実施形態の一変形例として、画像処理装置11の制御部41は、マーク55を表示する制御を行う際に、センサの移動方向におけるポイントPdと断面64との間の距離を表示する制御を更に行ってもよい。表示される距離の単位は、例えば、ミリメートルである。図2の例では、制御部41は、マークM1の隣に距離Da、マークM2,M3の隣に距離Dc、マークM4の隣に距離Dbを表示する制御を行ってもよい。
 本実施形態の一変形例として、画像処理装置11の制御部41は、センサの移動方向におけるポイントPdと断面64との間の距離が閾値を超える場合は、マーク55を非表示にしてもよい。図2の例では、閾値が距離Dcよりも小さいとすると、制御部41は、マークM2,M3を非表示にしてもよい。
 本実施形態の一変形例として、画像処理装置11の制御部41は、センサの移動方向における断面64の前後どちらにポイントPdが存在するかによってマーク55を変えてもよい。図2の例では、ポイントP1は、センサの移動方向における断面64の前方、すなわち、断面64の上に存在する。ポイントP2,P3,P4は、センサの移動方向における断面64の後方、すなわち、断面64の下に存在する。そのため、制御部41は、マークM1の色、明るさ、透過度、模様、大きさ、形状、向き、又はこれらの任意の組合せをマークM2,M3,M4とは別のものに設定してもよい。例えば、マークM1を上が凸の三角形、マークM2,M3,M4を下が凸の三角形にしてもよい。マークM1の色をマークM2,M3,M4とは別の色に設定する場合は、距離に応じた違いも確保できるように色を設定してもよい。例えば、マークM1の色を赤色、マークM2,M3,M4の色を青色に設定するのであれば、マークM1の赤色の濃さをマークM4の青色の濃さと同程度、マークM2,M3の青色の濃さをマークM4の青色よりも薄く設定してもよい。これらの例によれば、1画面で、過去の焼灼位置が上下どちらの方向にどの程度離れているのかを明確にすることができる。
 本実施形態の一変形例として、画像処理装置11の制御部41は、カテーテル63とポイントPdとの間の距離を表示する制御を更に行ってもよい。表示される距離の単位は、例えば、ミリメートルである。表示される距離は、平面上の距離でもよいが、3次元空間内の距離、すなわち、実際の距離である。図2の例では、制御部41は、カテーテル63から最短距離のポイントP5の隣に、カテーテル63からポイントP5までの距離を表示する制御を行ってもよい。制御部41は、断面画像54におけるカテーテル63の先端に対応する位置に、マーク55とは異なるマークを表示する制御を更に行ってもよい。
 ステップS303において、画像処理装置11の制御部41は、カテーテル63が生体組織60の内壁面65に接触しているかどうかを判定する。具体的には、制御部41は、断面画像54を解析して、断面画像54内の生体組織60及びカテーテル63を検出する。そして、制御部41は、生体組織60とカテーテル63の先端との間の距離を計測することで、生体組織60とカテーテル63の先端とが接触しているかどうかを判定する。あるいは、制御部41は、3次元データ52を解析して、3次元データ52に含まれるカテーテル63の先端を検出する。そして、制御部41は、生体組織60とカテーテル63の先端との距離を計測することで、生体組織60とカテーテル63の先端とが接触しているかどうかを判定する。制御部41は、カテーテル63の先端に設けられた電極を用いてカテーテル63の先端が生体組織60の内壁面65に接触しているかどうかを判定する外部システムから、通信部43又は入力部44を介して、カテーテル63の先端が接触している位置を示す位置データの入力を受けてもよい。そして、制御部41は、入力された位置データを参照して、断面画像54又は3次元データ52の解析結果を補正してもよい。
 ステップS303の処理はAIを用いて実行されてもよい。「AI」は、artificial intelligenceの略語である。本実施形態の一変形例として、ステップS303の処理が実行される代わりに、カテーテル63が生体組織60の内壁面65に接触しているかどうかを人間が判定してもよい。
 カテーテル63が生体組織60の内壁面65に接触していると判定された場合は、ステップS304及びステップS305の処理が実行される。カテーテル63が生体組織60の内壁面65に接触していないと判定された場合は、ステップS304及びステップS305の処理はスキップされる。
 ステップS304において、画像処理装置11の制御部41は、生体組織60の内壁面65の、カテーテル63が接触している箇所をポイントPdとして指定する指定データを取得する。この時点よりも前から断層データ51に対応する空間内の少なくとも1箇所がポイントPdとして指定済みである場合は、ポイントPdとして指定された箇所が1箇所追加されることになる。制御部41は、本実施形態では、断面画像54上で少なくとも1箇所をポイントPdとして指定するユーザ操作を受け付けることで、ポイントPdを指定するデータを指定データとして取得するが、ステップS303でカテーテル63の先端が接触している位置を自動的にポイントPdとして検出することで、ポイントPdを指定するデータを指定データとして取得してもよい。
 ステップS305において、画像処理装置11の制御部41は、断面画像54における、ステップS304で取得した指定データで指定された箇所に対応する位置に新たなマークを表示する制御を行う。
 図2の例では、ポイントP6が焼灼されたとすると、画像処理装置11の制御部41は、ポイントP6を指定するデータを指定データとして取得する。制御部41は、断面画像54におけるポイントP6に対応する位置に、マークM5と同じ色のマークM6を表示する制御を行う。
 本実施形態では、画像処理装置11の制御部41は、センサを用いて新たなデータセットが得られる度に、断面画像54として、センサの位置に対応する断面64を表す新たな画像をディスプレイ16に表示させる。そのため、プルバック操作によってセンサを移動させていくと、センサの移動方向におけるポイントPdから断面64までの距離が変化し、この距離の変化に伴ってマーク55も変化していく。ユーザは、このマーク55の変化を確認することで、プルバック操作によってセンサがポイントPdに近づいていく感覚、又はセンサがポイントPdから離れていく感覚を得ることができる。
 本実施形態の一変形例として、生体組織60の内壁面65の、カテーテル63で焼灼された箇所以外の箇所がマーキングされてもよい。すなわち、ポイントPdは、アブレーションポイントに限らない。例えば、生体組織60が血管であるとすると、図8に示すように、血管の分岐72の付け根がポイントPdとして指定されてもよい。あるいは、図9に示すように、血管にできた動脈瘤74の付け根がポイントPdとして指定されてもよい。あるいは、図10に示すように、神経75の血管に交差する箇所がポイントPdとして指定されてもよい。あるいは、図11に示すように、血管の周辺にできた腫瘍76の1箇所がポイントPdとして指定されてもよい。
 図8において、上側は、実際に断面画像54としてディスプレイ16に表示される血管の各横断面の画像を示しており、下側は、血管の縦断面の模式図である。この模式図において、各点線は、断面64としての各横断面の位置を示している。図9についても、図8と同様である。図10は、血管の縦断面の模式図である。図11についても、図10と同様である。
 図8から図11の例では、センサの移動方向におけるポイントPdから断面64までの距離によって、マーク55の大きさが変わるとする。図8の例では、ユーザは、ステント71を分岐72にかからないように一定の距離を置いて留置したいのであれば、プルバック操作を行いながらマーク55の大きさの変化を確認することで、ステント71を留置すべき位置を簡単に特定することができる。図9の例では、ユーザは、ステントグラフト73を、動脈瘤74をカバーするように一定の距離を跨いで留置したいのであれば、プルバック操作を行いながらマーク55の大きさの変化を確認することで、ステントグラフト73を留置すべき位置を簡単に特定することができる。一変形例として、ユーザは、ステントグラフト73の穴と血管の分岐とを一致させてステントグラフト73を留置したいのであれば、プルバック操作を行いながらマーク55の大きさの変化を確認することで、ステントグラフト73を留置すべき位置を簡単に特定することができる。この例によれば、ステントグラフト73を置く位置の、分岐からの距離及び方向も簡単に確認することができる。図10の例では、ユーザは、血管と交差する神経75を避けてアブレーションを行いたいか、又は神経75の周辺のアブレーションを行いたいのであれば、プルバック操作を行いながらマーク55の大きさの変化を確認することで、アブレーションを行うべき位置を簡単に特定することができる。神経75は、血管と交差する別の血管であってもよい。図11の例では、ユーザは、血管周辺にある腫瘍76から一定の距離をおいて薬を打ちたいのであれば、プルバック操作を行いながらマーク55の大きさの変化を確認することで、薬を打つべき位置を簡単に特定することができる。いずれの例においても、センサの移動方向におけるポイントPdから断面64までの距離を数値で表示してもよい。あるいは、センサの移動方向におけるポイントPdから断面64までの距離が目標の距離になったときに、マーク55の色などの表示のしかたを変えてもよいし、又はマーク55を非表示にしてもよい。
 ステップS104において、ユーザの変更操作として、3次元画像53を表示させる角度を設定する操作があれば、ステップS105の処理が実行される。ユーザの変更操作がなければ、ステップS106の処理が実行される。
 ステップS105において、画像処理装置11の制御部41は、3次元画像53を表示させる角度を設定する操作を、入力部44を介して受け付ける。制御部41は、3次元画像53を表示させる角度を、設定された角度に調整する。そして、ステップS103において、制御部41は、ステップS105で設定された角度で3次元画像53をディスプレイ16に表示させる。
 具体的には、画像処理装置11の制御部41は、ディスプレイ16に表示されている3次元画像53をユーザがキーボード14、マウス15、又はディスプレイ16と一体的に設けられたタッチスクリーンを用いて回転させる操作を、入力部44を介して受け付ける。制御部41は、3次元画像53をディスプレイ16に表示させる角度を、ユーザの操作に応じてインタラクティブに調整する。あるいは、制御部41は、3次元画像53を表示させる角度の数値をユーザがキーボード14、マウス15、又はディスプレイ16と一体的に設けられたタッチスクリーンを用いて入力する操作を、入力部44を介して受け付ける。制御部41は、3次元画像53をディスプレイ16に表示させる角度を、入力された数値に合わせて調整する。
 ステップS106において、断層データ51の更新があれば、ステップS107及びステップS108の処理が実行される。断層データ51の更新がなければ、ステップS104において、ユーザの変更操作の有無が再度確認される。
 ステップS107において、画像処理装置11の制御部41は、ステップS101の処理と同様に、プローブ20から入力された信号を処理して生体組織60の断面画像54を新たに生成することで、少なくとも1つの新たな断面画像54を含む断層データ51を取得する。
 ステップS108において、画像処理装置11の制御部41は、ステップS107で取得した断層データ51に基づいて生体組織60の3次元データ52を更新する。すなわち、制御部41は、センサによって取得された断層データ51に基づいて3次元データ52を更新する。そして、ステップS103において、制御部41は、ステップS108で更新した3次元データ52を3次元画像53としてディスプレイ16に表示させる。制御部41は、ステップS107で取得した断層データ51に含まれる最新の断面画像54を3次元画像53とともにディスプレイ16に表示させる。ステップS108においては、更新された断層データ51が対応する箇所のデータのみを更新することが好ましい。その場合、3次元データ52を生成する際のデータ処理量を削減し、ステップS108において、3次元画像53のリアルタイム性を向上させることができる。
 上述のように、本実施形態では、画像処理装置11の制御部41は、生体組織60の内腔61を移動するセンサを用いて得られたデータセットである断層データ51を参照して、センサの移動方向に直交する生体組織60の断面64を表す断面画像54をディスプレイ16に表示させる。制御部41は、断層データ51に対応する空間内の少なくとも1箇所をポイントPdとして指定する指定データを取得する。制御部41は、断面画像54が表示されているときに、断面画像54におけるポイントPdに対応する位置に、センサの移動方向におけるポイントPdと断面64との間の距離によって異なるマーク55を表示する制御を行う。したがって、本実施形態によれば、生体組織60に関連するポイントPdをマーキングするためのシステムの有用性が向上する。
 本実施形態によれば、アブレーション手技をガイドし、焼灼点をマーキングすることができる。アブレーションポイントを断面画像54で確認することで、3次元画像53で確認する場合に比べて、細かく、かつ正確な情報を知ることができる。円周隔離を同一平面上で行うのではなく、IVUSカテーテルの軸に対して斜めに行うことがあるが、本実施形態では、そのような場合でも全てのアブレーションポイントを確認することができる。しかも、各アブレーションポイントが、断面画像54で表されている断面64にあるのか、また断面64になければ、どれくらい離れているのかを確認することができる。
 本実施形態では、断層データ51は、超音波画像ごとに、超音波画像上の各ピクセルを「組織」、「血球」又は「内腔」、及びIVUSカテーテル以外の「カテーテル」などのクラスに分類し、クラスごとに、ピクセル群をセンサの移動方向に積層したボリュームデータをデータセットとして含んでいる。このボリュームデータは、ボクセル情報に相当する。指定データとして、ポイントPdの位置を示すデータも、「組織」、「血球」又は「内腔」、及び「カテーテル」などのクラスとは別に「マーク箇所」というクラスのボリュームデータとしてデータセットの中に組み込まれ、そのボリュームデータに基づいてマーク55が表示される。後述するように、重心からのベクトルを求めてマーク箇所を調整する場合、ベクトル算出後は、「マーク箇所」としてポイントPdの位置を示すデータそのものではなく、ベクトル、すなわち、向きを示すデータがデータセットの中に組み込まれてもよい。
 本実施形態では、ポイントPdを指定する方法として、術者などのユーザが2次元画像上でポイントPdの位置を指定する方法が用いられる。例えば、ユーザがマウス15により2次元画像上でポイントPdをクリックする方法が用いられる。本実施形態の一変形例として、ユーザが3次元画像53上でポイントPdの位置を指定する方法が用いられてもよい。例えば、ユーザがマウス15により3次元画像53上でポイントPdをクリックする方法が用いられてもよい。あるいは、アブレーションカテーテルがコンタクトしている領域を、焼灼が実行されたという情報に基づいて自動的にポイントPdとして指定する方法が用いられてもよい。焼灼が実行されたという情報は、手動で画像処理装置11に入力されてもよいし、又はアブレーションカテーテルを制御する装置から画像処理装置11に入力されてもよい。いずれの変形例においても、2次元座標又は3次元座標で1点が指定される場合は、指定された点を中心とした一定の範囲が1箇所としてマーキングされる。ある点を中心とする1つの範囲が指定される場合は、指定された範囲が1箇所としてマーキングされる。例えば、円状又は球状のポインタで一定の大きさの範囲がアブレーションポイントとして指定されてよい。センサの移動方向におけるポイントPdと断面64との間の距離としては、指定された範囲の中心から断面64までの距離が算出されてよい。
 図12を参照して、本実施形態に係る画像処理システム10の動作を更に説明する。
 ステップS111において、ユーザの設定操作として、切断領域66を設定する操作があれば、ステップS112の処理が実行される。
 ステップS112において、画像処理装置11の制御部41は、切断領域66を設定する操作を、入力部44を介して受け付ける。
 ステップS113において、画像処理装置11の制御部41は、記憶部42に記憶された最新の3次元データ52を用いて生体組織60の内腔61の短手方向の複数断面の重心位置を算出する。最新の3次元データ52とは、ステップS108の処理が実行されていなければ、ステップS102で生成された3次元データ52のことであり、ステップS108の処理が実行されていれば、ステップS108で更新された3次元データ52のことである。ここで、既に生成済みの3次元データ52が存在する場合、3次元データ52を一から全て生成し直すのではなく、更新された断層データ51が対応する箇所のデータのみを更新することが好ましい。その場合、3次元データ52を生成する際のデータ処理量を削減し、後のステップS117における3次元画像53のリアルタイム性を向上させることができる。
 具体的には、画像処理装置11の制御部41は、図13に示すように、ステップS101で生成した複数の断面画像のそれぞれを、ステップS107で対応する新たな断面画像54を生成していれば、その新たな断面画像54に置き換えた上で2値化する。制御部41は、図14に示すように、2値化した断面画像から生体組織60の内壁面65の点群を抽出する。例えば、制御部41は、r軸を横軸、θ軸を縦軸とする断面画像の縦方向に沿って主血管の内壁面に該当する点を1つずつ抽出することで、血管の内壁面の点群を抽出する。制御部41は、単に、抽出した内壁面の点群の重心を求めてもよいが、その場合、点群が内壁面に亘って均一にサンプリングされないため、重心位置にズレが生じる。そこで、本実施形態では、制御部41は、抽出した内壁面の点群の凸包を算出し、以下のように多角形の重心を求める式を用いて重心位置C=(C,C)を算出する。ただし、以下の式においては、図14に示すような内壁面の点群としてn個の頂点(x,y),(x,y),・・・,(xn-1,yn-1)が反時計回りに凸包上に存在するものとし、(x,y)は(x,y)とみなす。
Figure JPOXMLDOC01-appb-M000001
 結果として得られる重心位置を図15に示す。図15において、点Cnは、断面画像の中心である。点Bpは、内壁面の点群の重心である。点Bvは、多角形の頂点の重心である。点Bxは、凸包としての多角形の重心である。
 血管の重心位置を算出する手法として、凸包としての多角形の重心位置を算出する手法とは別の手法が用いられてもよい。例えば、2値化されていない元の断面画像において、主血管に収まる最大円の中心位置を重心位置として算出する手法が用いられてもよい。あるいは、r軸を横軸、θ軸を縦軸とする2値化された断面画像において、主血管領域のピクセルの平均位置を重心位置として算出する手法が用いられてもよい。生体組織60が血管でない場合についても、これらと同様の手法を用いることができる。
 ステップS114において、画像処理装置11の制御部41は、ステップS113の重心位置の算出結果に対してスムージングを実行する。
 図16に示すように、重心位置の算出結果を時間関数として見た場合、拍動の影響が大きく生じることがわかる。そこで、本実施形態では、画像処理装置11の制御部41は、図17に破線で示すように、移動平均を用いることで重心位置の算出結果に対してスムージングを実行する。
 スムージングの手法として、移動平均とは別の手法が用いられてもよい。例えば、指数平滑法、カーネル法、局所回帰、Ramer-Douglas-Peuckerアルゴリズム、サビツキーゴーレイ法、平滑化スプライン、又はSGMが用いられてもよい。あるいは、高速フーリエ変換を実行してから高周波成分を除去する手法が用いられてもよい。あるいは、カルマンフィルタ、又はバターワースフィルタ、チェビシェフフィルタ、デジタルフィルタ、楕円フィルタ、若しくはKZフィルタなどのローパスフィルタが用いられてもよい。「SGM」は、stretched grid methodの略語である。「KZ」は、Kolmogorov-Zurbenkoの略語である。
 単にスムージングを実行すると、重心位置が組織の中に入ってしまう場合がある。その場合、制御部41は、Z方向における、Z方向に直交する生体組織60の複数断面の位置に応じて重心位置の算出結果を分割し、分割した算出結果ごとにスムージングを実行してもよい。すなわち、制御部41は、図17に破線で示すような重心位置の曲線が組織領域に重なった場合、重心位置の曲線を複数の区間に分割し、区間ごとに個別のスムージングを実行してもよい。あるいは、制御部41は、Z方向における、Z方向に直交する生体組織60の複数断面の位置に応じて重心位置の算出結果に対して実行するスムージングの度合いを調整してもよい。すなわち、制御部41は、図17に破線で示すような重心位置の曲線が組織領域に重なった場合、重なった点を含む一部の区間に対して実行するスムージングの度合いを減少させてもよい。
 ステップS115において、画像処理装置11の制御部41は、図3に示したように、ステップS113で算出した重心位置を通る1本の線Lbで交わる2つの平面を切断面D1,D2として設定する。本実施形態では、制御部41は、ステップS114で重心位置の算出結果に対してスムージングを実行した上で切断面D1,D2を設定するが、ステップS114の処理は省略してもよい。
 具体的には、画像処理装置11の制御部41は、ステップS114のスムージングの結果として得られた重心位置の曲線を線Lbとして設定する。制御部41は、設定した線Lbで交わる1対の面を切断面D1,D2として設定する。制御部41は、記憶部42に記憶された最新の3次元データ52において、生体組織60の切断面D1,D2と交差する3次元座標を、3次元画像53において生体組織60の内腔61を露出させる開口62の縁の3次元座標として特定する。制御部41は、特定した3次元座標を記憶部42に記憶させる。
 ステップS116において、画像処理装置11の制御部41は、3次元画像53において切断面D1,D2に挟まれ、生体組織60の内腔61を露出させる領域を切断領域66として3次元データ52に形成する。
 具体的には、画像処理装置11の制御部41は、記憶部42に記憶された最新の3次元データ52において、記憶部42に記憶された3次元座標で特定される部分を、3次元画像53をディスプレイ16に表示させる際に非表示又は透明になるように設定する。すなわち、制御部41は、ステップS112で設定された切断領域66を形成する。
 ステップS117において、画像処理装置11の制御部41は、ステップS116で切断領域66を形成した3次元データ52を3次元画像53としてディスプレイ16に表示させる。制御部41は、ステップS103でディスプレイ16に表示させた断面画像54、すなわち、2次元画像を3次元画像53とともにディスプレイ16に表示させる。
 具体的には、画像処理装置11の制御部41は、記憶部42に記憶された3次元座標で特定される部分が非表示又は透明になっている、図2に示したような3次元画像53を生成する。制御部41は、記憶部42に記憶された断層データ51に含まれる生体組織60の断面画像のうち、最新の断面画像54と、生成した3次元画像53を、出力部45を介してディスプレイ16に表示させる。
 ステップS117では、ステップS103と同様に、図7に示した処理が更に実行される。
 ステップS118において、ユーザの変更操作として、切断領域66を設定する操作があれば、ステップS119の処理が実行される。ユーザの変更操作がなければ、ステップS120の処理が実行される。
 ステップS119において、画像処理装置11の制御部41は、ステップS112の処理と同様に、切断領域66を設定する操作を、入力部44を介して受け付ける。そして、ステップS115以降の処理が実行される。
 ステップS120において、断層データ51の更新があれば、ステップS121及びステップS122の処理が実行される。断層データ51の更新がなければ、ステップS118において、ユーザの変更操作の有無が再度確認される。
 ステップS121において、画像処理装置11の制御部41は、ステップS101又はステップS107の処理と同様に、プローブ20から入力された信号を処理して生体組織60の断面画像54を新たに生成することで、少なくとも1つの新たな断面画像54を含む断層データ51を取得する。
 ステップS122において、画像処理装置11の制御部41は、ステップS121で取得した断層データ51に基づいて生体組織60の3次元データ52を更新する。その後、ステップS113以降の処理が実行される。ステップS122においては、更新された断層データ51が対応する箇所のデータのみを更新することが好ましい。その場合、3次元データ52を生成する際のデータ処理量を削減し、ステップS113以降のデータ処理のリアルタイム性を向上させることができる。
 本実施形態では、2次元画像を用いてマーキングが行われるが、本実施形態の一変形例として、3次元画像53を用いてマーキングが行われてもよい。2次元画像を用いてマーキングが行われる場合、図18のようにポイントPdをマーキングしても、図19のようにプローブ20の軸がずれると、3次元空間の軸がずれてマーキングの意味がなくなる。例えば、図18では、断面画像54の中心Pcの位置が断面画像54の重心Pbの位置と一致しているが、図19では、断面画像54の中心Pcの位置が断面画像54の重心Pbの位置から大きくずれている。そのため、図18では、ポイントPdが内壁面65に存在しているが、図19では、ポイントPdが内壁面65から大きくずれている。このような課題に対処するために、本実施形態では、図20に示すように、ポイントPdと内腔61の重心Pbとを結ぶ直線と、生体組織60の内壁面65との交点にマーク55が表示される。図20のようにプローブ20の軸がずれた場合においても、重心Pbの位置は変わらず、重心PbからポイントPdへの方向は変化がないため、図19のようなマーキングのズレを解消することができる。仮に軸がずれなかったとしても、拍動の影響により内壁面65が動くときがあるが、そのようなときでもマーキングのズレを解消することができる。同様に、3次元画像53を用いてマーキングが行われる場合、図22のようにポイントPdをマーキングしても、図23のように中心Pcの位置がずれると、ポイントPdの位置もずれてしまう。そのため、本実施形態と同様に、図24に示すように、例えば、断面C2の重心B2からの相対位置にマーク55を表示することで、図23のようなマーキングのズレを解消することができる。
 図21を参照して、マーキング処理の手順を説明する。
 ステップS311の処理については、図7のステップS303の処理と同じであるため、説明を省略する。
 カテーテル63が生体組織60の内壁面65に接触していると判定された場合は、ステップS312以降の処理が実行される。カテーテル63が生体組織60の内壁面65に接触していないと判定された場合は、図21のフローは終了する。
 ステップS312において、画像処理装置11の制御部41は、図7のステップS304と同様に、生体組織60の内壁面65の、カテーテル63が接触している箇所をポイントPdとして指定する指定データを取得する。制御部41は、本実施形態では、断面画像54上で少なくとも1箇所をポイントPdとして指定するユーザ操作を受け付けることで、ポイントPdを指定するデータを指定データとして取得するが、ステップS311でカテーテル63の先端が接触している位置を自動的にポイントPdとして検出することで、ポイントPdを指定するデータを指定データとして取得してもよい。
 ステップS313において、画像処理装置11の制御部41は、断層データ51を参照して、断面64における重心Pbからの、ステップS304で取得した指定データで指定されたポイントPdの方向を指定方向として特定する。
 ステップS314において、画像処理装置11の制御部41は、ステップS313で特定した指定方向と、重心Pbの位置とに応じて、断面64におけるポイントPdに対応する位置を対応位置として特定する。具体的には、画像処理装置11の制御部41は、断層データ51を参照して、断面64に存在する生体組織60の内壁面65を検出する。制御部41は、断面画像54において重心Pbの位置から、ステップS313で特定した指定方向に延びる直線が、検出した内壁面65と交差する位置を対応位置として特定する。
 ステップS315において、画像処理装置11の制御部41は、ステップS314で特定した対応位置にマーク55を表示する制御を行う。
 本実施形態の一変形例として、ステップS314において、画像処理装置11の制御部41は、断面画像54において重心Pbの位置から、ステップS313で特定した指定方向に延びる直線が、検出した内壁面65と交差する位置から内腔61の側にずれた位置を対応位置として特定してもよい。すなわち、ポイントPdと重心Pbとを結ぶ直線と、生体組織60の内壁面65との交点よりも少し壁の外側にマーク55が表示されてもよい。この変形例によれば、内壁面65のエッジがマーク55で隠れてエッジ部分の情報が消えることを避けられる。この変形例では、内壁面65とマーク55の表示位置との間の距離が記憶部42に記憶され、マーク55の表示の度に読み出されて適用される。
 本実施形態の一変形例として、ステップS314において、画像処理装置11の制御部41は、断面画像54において重心Pbの位置から、ステップS313で特定した指定方向に延びる直線が、検出した内壁面65と交差する位置から内腔61の反対側にずれた位置を対応位置として特定してもよい。すなわち、ポイントPdと重心Pbとを結ぶ直線と、生体組織60の内壁面65との交点よりも少し壁の内側にマーク55が表示されてもよい。この変形例によれば、内壁面65のエッジがマーク55で隠れてエッジ部分の情報が消えることを避けられる。この変形例では、内壁面65とマーク55の表示位置との間の距離、又は生体組織60の外壁面とマーク55の表示位置との間の距離が記憶部42に記憶され、マーク55の表示の度に読み出されて適用される。あるいは、内壁面65と外壁面との間におけるマーク55の相対的な表示位置が記憶部42に記憶され、マーク55の表示の度に読み出されて適用される。例えば、ユーザは、左室の壁にiPS細胞を注入する際に、拍動により壁の厚さが変動しても、マーク55が常に壁内に表示されるため、細胞を注入すべき位置を簡単に特定することができる。
 この変形例では、図25に示すように、マーク55が焼灼位置を示してもよい。図25の例では、生体組織60の内腔61が3次元オブジェクトとして表示され、内腔61の形状がわかるように生体組織60が非表示になっている。内腔61を表す3次元オブジェクトの外表面は、生体組織60の内壁面65に相当する。この外表面よりも少し外側にマーク55としての球体を並べて置くことで、外表面又は外表面よりも内側に球体を置く場合に比べて、焼灼位置が見やすくなる。
 本実施形態の一変形例として、ステップS314において、画像処理装置11の制御部41は、断層データ51を参照して、断面64における重心PbからポイントPdまでの距離を算出してもよい。制御部41は、断面画像54において重心Pbの位置から指定方向に延びる直線上で、算出した距離だけ重心Pbの位置から指定方向に離れた位置を対応位置として特定してもよい。
 上述のように、本実施形態では、画像処理装置11の制御部41は、生体組織60の内腔61を移動するセンサを用いて得られたデータセットである断層データ51を参照して、生体組織60を表す画像をディスプレイ16に表示させる。制御部41は、断層データ51に対応する空間内の少なくとも1箇所をポイントPdとして指定する指定データを取得する。制御部41は、断層データ51を参照して、ポイントPdを含む、センサの移動方向に直交する生体組織60の断面64における重心PbからのポイントPdの方向を指定方向として特定する。制御部41は、特定した指定方向と、重心Pbの位置とに応じて、生体組織60を表す画像におけるポイントPdに対応する位置を対応位置として特定する。制御部41は、生体組織60を表す画像が表示されているときに、特定した対応位置にマーク55を表示する制御を行う。したがって、本実施形態によれば、生体組織60のポイントPdをマーキングするためのシステムでマーキングのズレを解消することができる。
 本実施形態では、「生体組織60を表す画像」として、断面画像54が用いられるが、断面画像54の代わりに、3次元画像53が用いられてもよい。その場合、画像処理装置11の制御部41は、生体組織60を表す画像において、生体組織60の内壁面全体のうち、対応位置を含む第1領域と、当該第1領域の周囲の第2領域とを異なる色に設定することで、マーク55を表示する制御を行ってもよい。ポイントPdが指定される際に、2次元座標又は3次元座標で1点が指定される場合は、指定された点を中心とした一定の範囲が第1領域としてマーキングされる。ある点を中心とする1つの範囲が指定される場合は、指定された範囲が第1領域としてマーキングされる。例えば、円状又は球状のポインタで一定の大きさの範囲が第1領域として指定されてよい。
 本実施形態では、生体組織60の複数箇所がポイントPdとして指定済みである場合は、当該複数箇所に対応する位置それぞれにマーク55が表示されるが、本実施形態の一変形例として、当該複数箇所のうち、センサの位置に対応する断面64に存在する箇所のみについてマーク55が表示されてもよい。その場合、マーク55が設定された画像の情報が記憶されて、断面画像54として、同じ画像が表示された際に、設定されたマーク55が表示されてもよい。
 本開示は上述の実施形態に限定されるものではない。例えば、ブロック図に記載の2つ以上のブロックを統合してもよいし、又は1つのブロックを分割してもよい。フローチャートに記載の2つ以上のステップを記述に従って時系列に実行する代わりに、各ステップを実行する装置の処理能力に応じて、又は必要に応じて、並列的に又は異なる順序で実行してもよい。その他、本開示の趣旨を逸脱しない範囲での変更が可能である。
 例えば、画像処理装置11の制御部41は、図26に示すように、複数箇所がポイントPdとして指定されている場合は、生体組織60に挿入されているカテーテル63と当該複数箇所のうちカテーテル63に最も近い箇所との間の距離を断面画像54上で表示する制御を更に行ってもよい。あるいは、制御部41は、1箇所のみがポイントPdとして指定されている場合は、カテーテル63と当該1箇所との間の距離を断面画像54上で表示する制御を更に行ってもよい。表示される距離の単位は、例えば、ミリメートルである。表示される距離は、平面上の距離でもよいが、3次元空間内の距離、すなわち、実際の距離である。図26の例では、生体組織60の内壁面65の、カテーテル63で焼灼された6箇所がポイントP1,P2,P3,P4,P5,P6として指定されている。これら6箇所のうち、ポイントP6として指定された箇所がカテーテル63に最も近いとすると、カテーテル63と、断面画像54におけるポイントP6に対応する位置との間の距離が断面画像54上で表示される。図26の例では、距離として「15.7mm」というテキストが表示されている。制御部41は、図26に示すように、断面画像54におけるカテーテル63に対応する位置に、マーク55とは異なるマークを表示する制御を更に行ってもよい。
 画像処理装置11の制御部41は、図26に示すように、複数箇所がポイントPdとして指定されている場合は、カテーテル63と当該複数箇所のうちカテーテル63に最も近い箇所とを結ぶ線56を断面画像54上で表示する制御を更に行ってもよい。あるいは、制御部41は、1箇所のみがポイントPdとして指定されている場合は、カテーテル63と当該1箇所とを結ぶ線を断面画像54上で表示する制御を更に行ってもよい。図26の例では、生体組織60の内壁面65の、カテーテル63で焼灼された6箇所がポイントP1,P2,P3,P4,P5,P6として指定されている。これら6箇所のうち、ポイントP6として指定された箇所がカテーテル63に最も近いとすると、線56としては、カテーテル63と、断面画像54におけるポイントP6に対応する位置とを結ぶ直線が断面画像54上で表示される。図26の例では、断面画像54におけるカテーテル63に対応する位置に、マーク55とは異なるマークが表示されており、このマークと、マークM6とを結ぶ直線が表示されている。
 不整脈カテーテルアブレーション術においては、不審な電気の発生源を、アブレーションカテーテルを用いて線状又は円周状に焼灼することで、発生源と心臓領域とを断線することを目標にしている。しかし、Point by Pointの術式では、焼灼ポイント間が離れすぎていて断線に失敗し、手技目標を達成することができない可能性がある。そのため、焼灼ポイント同士の間隔を密にする必要がある。上述した例によれば、2次元画像において、アブレーションカテーテルと、アブレーションカテーテルに最も近い焼灼ポイントとの間の距離を見ながら、次の焼灼ポイントを決めることができる。よって、焼灼ポイント同士の間隔を密にしやすくなる。その結果、手技目標を達成する可能性を高めることができる。
 例えば、画像処理装置11の制御部41は、図26に示すように、複数箇所がポイントPdとして指定されている場合は、カテーテル63と当該複数箇所のうちカテーテル63に最も近い箇所との間の距離を3次元画像53上で表示する制御を更に行ってもよい。あるいは、制御部41は、1箇所のみがポイントPdとして指定されている場合は、カテーテル63と当該1箇所との間の距離を3次元画像53上で表示する制御を更に行ってもよい。表示される距離の単位は、例えば、ミリメートルである。表示される距離は、3次元空間内の距離、すなわち、実際の距離である。図26の例では、生体組織60の内壁面65の、カテーテル63で焼灼された6箇所がポイントP1,P2,P3,P4,P5,P6として指定されている。これら6箇所のうち、ポイントP6として指定された箇所がカテーテル63に最も近いとすると、カテーテル63と、ポイントP6との間の距離が3次元画像53上で表示される。図26の例では、距離として「15.7mm」というテキストが表示されている。
 画像処理装置11の制御部41は、図26に示すように、複数箇所がポイントPdとして指定されている場合は、カテーテル63と当該複数箇所のうちカテーテル63に最も近い箇所とを結ぶ線57を3次元画像53上で表示する制御を更に行ってもよい。あるいは、制御部41は、1箇所のみがポイントPdとして指定されている場合は、カテーテル63と当該1箇所とを結ぶ線を3次元画像53上で表示する制御を更に行ってもよい。図26の例では、生体組織60の内壁面65の、カテーテル63で焼灼された6箇所がポイントP1,P2,P3,P4,P5,P6として指定されている。これら6箇所のうち、ポイントP6として指定された箇所がカテーテル63に最も近いとすると、線57としては、カテーテル63と、断面画像54におけるポイントP6に対応する位置とを結ぶ直線が3次元画像53上で表示される。図26の例では、3次元画像53におけるカテーテル63の先端と、ポイントP6とを結ぶ直線が表示されている。
 上述した例によれば、3次元画像53において、アブレーションカテーテルと、アブレーションカテーテルに最も近い焼灼ポイントとの間の距離を見ながら、次の焼灼ポイントを決めることができる。よって、焼灼ポイント同士の間隔を密にしやすくなる。その結果、手技目標を達成する可能性を高めることができる。
 10 画像処理システム
 11 画像処理装置
 12 ケーブル
 13 駆動ユニット
 14 キーボード
 15 マウス
 16 ディスプレイ
 17 接続端子
 18 カートユニット
 20 プローブ
 21 駆動シャフト
 22 ハブ
 23 シース
 24 外管
 25 超音波振動子
 26 中継コネクタ
 31 スキャナユニット
 32 スライドユニット
 33 ボトムカバー
 34 プローブ接続部
 35 スキャナモータ
 36 差込口
 37 プローブクランプ部
 38 スライドモータ
 39 スイッチ群
 41 制御部
 42 記憶部
 43 通信部
 44 入力部
 45 出力部
 51 断層データ
 52 3次元データ
 53 3次元画像
 54 断面画像
 55 マーク
 56 線
 57 線
 60 生体組織
 61 内腔
 62 開口
 63 カテーテル
 64 断面
 65 内壁面
 66 切断領域
 71 ステント
 72 分岐
 73 ステントグラフト
 74 動脈瘤
 75 神経
 76 腫瘍

Claims (16)

  1.  生体組織の内腔を移動するセンサを用いて得られたデータセットである断層データを参照して、前記センサの移動方向に直交する前記生体組織の断面を表す断面画像をディスプレイに表示させる画像処理装置であって、
     前記断層データに対応する空間内の少なくとも1箇所を指定する指定データを取得し、前記断面画像が表示されているときに、前記断面画像における前記少なくとも1箇所に対応する位置に、前記移動方向における前記少なくとも1箇所と前記断面との間の距離によって異なるマークを表示する制御を行う制御部を備える画像処理装置。
  2.  前記制御部は、前記距離によって、前記マークの色、明るさ、透過度、模様、大きさ、形状、又は向きを変える請求項1に記載の画像処理装置。
  3.  前記制御部は、前記マークを表示する制御を行う際に、前記距離を表示する制御を更に行う請求項1又は請求項2に記載の画像処理装置。
  4.  前記制御部は、前記距離が閾値を超える場合は、前記マークを非表示にする請求項1から請求項3のいずれか1項に記載の画像処理装置。
  5.  前記制御部は、前記移動方向における前記断面の前後どちらに前記少なくとも1箇所が存在するかによって前記マークを変える請求項1から請求項4のいずれか1項に記載の画像処理装置。
  6.  前記少なくとも1箇所は、前記生体組織の焼灼された箇所であり、
     前記制御部は、前記断面画像が表示されているときに、前記生体組織を焼灼するためのカテーテルと前記少なくとも1箇所との間の距離を表示する制御を更に行う請求項1から請求項5のいずれか1項に記載の画像処理装置。
  7.  前記制御部は、前記少なくとも1箇所が1箇所のみの場合は、前記生体組織に挿入されているカテーテルと前記1箇所との間の距離を前記断面画像上で表示する制御、前記少なくとも1箇所が複数箇所の場合は、前記カテーテルと前記複数箇所のうち前記カテーテルに最も近い箇所との間の距離を前記断面画像上で表示する制御を更に行う請求項1から請求項5のいずれか1項に記載の画像処理装置。
  8.  前記制御部は、前記少なくとも1箇所が1箇所のみの場合は、前記生体組織に挿入されているカテーテルと前記1箇所とを結ぶ線を前記断面画像上で表示する制御、前記少なくとも1箇所が複数箇所の場合は、前記カテーテルと前記複数箇所のうち前記カテーテルに最も近い箇所とを結ぶ線を前記断面画像上で表示する制御を更に行う請求項1から請求項5のいずれか1項に記載の画像処理装置。
  9.  前記制御部は、前記断層データを参照して、前記生体組織を表す3次元データを生成し、生成した3次元データを3次元画像として前記ディスプレイに表示させ、前記少なくとも1箇所が1箇所のみの場合は、前記生体組織に挿入されているカテーテルと前記1箇所との間の距離を前記3次元画像上で表示する制御、前記少なくとも1箇所が複数箇所の場合は、前記カテーテルと前記複数箇所のうち前記カテーテルに最も近い箇所との間の距離を前記3次元画像上で表示する制御を更に行う請求項1から請求項5のいずれか1項に記載の画像処理装置。
  10.  前記制御部は、前記断層データを参照して、前記生体組織を表す3次元データを生成し、生成した3次元データを3次元画像として前記ディスプレイに表示させ、前記少なくとも1箇所が1箇所のみの場合は、前記生体組織に挿入されているカテーテルと前記1箇所とを結ぶ線を前記3次元画像上で表示する制御、前記少なくとも1箇所が複数箇所の場合は、前記カテーテルと前記複数箇所のうち前記カテーテルに最も近い箇所とを結ぶ線を前記3次元画像上で表示する制御を更に行う請求項1から請求項5のいずれか1項に記載の画像処理装置。
  11.  前記制御部は、前記断面画像上で前記少なくとも1箇所を指定するユーザ操作を受け付けることで、前記指定データを取得する請求項1から請求項10のいずれか1項に記載の画像処理装置。
  12.  前記制御部は、前記センサを用いて新たなデータセットが得られる度に、前記断面画像として、前記センサの位置に対応する断面を表す新たな画像を前記ディスプレイに表示させる請求項1から請求項11のいずれか1項に記載の画像処理装置。
  13.  請求項1から請求項12のいずれか1項に記載の画像処理装置と、
     前記センサと
    を備える画像処理システム。
  14.  前記ディスプレイを更に備える請求項13に記載の画像処理システム。
  15.  生体組織の内腔を移動するセンサを用いて得られたデータセットである断層データを参照して、前記センサの移動方向に直交する前記生体組織の断面を表す断面画像をディスプレイに表示する画像表示方法であって、
     コンピュータが、前記断層データに対応する空間内の少なくとも1箇所を指定する指定データを取得し、
     前記コンピュータが、前記断面画像が表示されているときに、前記断面画像における前記少なくとも1箇所に対応する位置に、前記移動方向における前記少なくとも1箇所と前記断面との間の距離によって異なるマークを表示する制御を行う画像表示方法。
  16.  生体組織の内腔を移動するセンサを用いて得られたデータセットである断層データを参照して、前記センサの移動方向に直交する前記生体組織の断面を表す断面画像をディスプレイに表示させるコンピュータに、
     前記断層データに対応する空間内の少なくとも1箇所を指定する指定データを取得する処理と、
     前記断面画像が表示されているときに、前記断面画像における前記少なくとも1箇所に対応する位置に、前記移動方向における前記少なくとも1箇所と前記断面との間の距離によって異なるマークを表示する制御を行う処理と
    を実行させる画像処理プログラム。
PCT/JP2022/009240 2021-03-25 2022-03-03 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム WO2022202201A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202280023708.1A CN117062571A (zh) 2021-03-25 2022-03-03 图像处理装置、图像处理***、图像显示方法及图像处理程序
JP2023508894A JPWO2022202201A1 (ja) 2021-03-25 2022-03-03
US18/472,474 US20240013387A1 (en) 2021-03-25 2023-09-22 Image processing device, image processing system, image display method, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-052437 2021-03-25
JP2021052437 2021-03-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/472,474 Continuation US20240013387A1 (en) 2021-03-25 2023-09-22 Image processing device, image processing system, image display method, and image processing program

Publications (1)

Publication Number Publication Date
WO2022202201A1 true WO2022202201A1 (ja) 2022-09-29

Family

ID=83396920

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/009240 WO2022202201A1 (ja) 2021-03-25 2022-03-03 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム

Country Status (4)

Country Link
US (1) US20240013387A1 (ja)
JP (1) JPWO2022202201A1 (ja)
CN (1) CN117062571A (ja)
WO (1) WO2022202201A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015109968A (ja) * 2013-11-13 2015-06-18 パイ メディカル イメージング ビー ヴイPie Medical Imaging B.V. 血管内画像を登録するための方法およびシステム
JP2020528779A (ja) * 2017-07-26 2020-10-01 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc 血管造影画像を用いて心臓運動を評価するための方法
US20200397294A1 (en) * 2018-03-08 2020-12-24 Koninklijke Philips N.V. Intravascular navigation using data-driven orientation maps

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015109968A (ja) * 2013-11-13 2015-06-18 パイ メディカル イメージング ビー ヴイPie Medical Imaging B.V. 血管内画像を登録するための方法およびシステム
JP2020528779A (ja) * 2017-07-26 2020-10-01 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc 血管造影画像を用いて心臓運動を評価するための方法
US20200397294A1 (en) * 2018-03-08 2020-12-24 Koninklijke Philips N.V. Intravascular navigation using data-driven orientation maps

Also Published As

Publication number Publication date
JPWO2022202201A1 (ja) 2022-09-29
CN117062571A (zh) 2023-11-14
US20240013387A1 (en) 2024-01-11

Similar Documents

Publication Publication Date Title
EP2573735B1 (en) Endoscopic image processing device, method and program
JP2012024509A (ja) 画像処理装置、方法及びプログラム
US20220218309A1 (en) Diagnostic assistance device, diagnostic assistance system, and diagnostic assistance method
WO2022202201A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2022202202A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2023054001A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2022071251A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2023013601A1 (ja) 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム
WO2022071250A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2022202203A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2021200294A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2022085373A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2022202200A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
US20240242396A1 (en) Image processing device, image processing system, image display method, and image processing program
CN114502079B (zh) 诊断支援装置、诊断支援***及诊断支援方法
WO2023176741A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2021200296A1 (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
WO2021065746A1 (ja) 診断支援装置、診断支援システム、及び診断支援方法
WO2020217860A1 (ja) 診断支援装置及び診断支援方法
JP2023024072A (ja) 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム
US20230025720A1 (en) Image processing device, image processing system, image display method, and image processing program
CN113645907A (zh) 诊断支援装置、诊断支援***以及诊断支援方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22774997

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023508894

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202280023708.1

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22774997

Country of ref document: EP

Kind code of ref document: A1